Au-delà des critiques usuelles sur les IA génératives, Pauline Harmange se demande comment ces outils ont pu "prendre" aussi rapidement dans la société : pourquoi nos pairs vont-ils si rapidement les adopter, en dépit de toutes les bonnes raisons de ne pas le faire ?
C'est parce que "la société" a réussi à nous convaincre individuellement de notre nullité, de notre impuissance, de notre incapacité à créer, à inventer. La machine fait de la merde, mais plus jolie que ce qu'on est capable de faire avec nos petites capacités limitées (certes moins jolie que si on travaillait vraiment nos créations, mais bien plus rapidement).
En réponse, l'auteure propose de faire, ensemble. Faire des trucs de nos dix doigts, dans le monde matériel. Faire et imaginer avec d'autres, peut-être mal, peut-être imparfaitement, mais ensemble. Pour rappeler que, le réel, les liens humains, c'est vachement chouette.
Le syndicat américain des auteur.e.s de science-fiction et fantasy a décidé d'interdire l'usage de générateurs automatiques pour les œuvres concourant aux Nebulas, et cette interdiction s'est faite plus ferme sous la pression de la communauté des lectrices, lecteurs et auteur.e.s. Erin Underwood, actrice, s'oppose à cette interdiction générale dans une lettre ouverte.
L'écrivaine australienne Foz Meadows (wikipedia) publie une réponse au vitriol "contre l'IA". La seconde partie répond argument par argument à la lettre d'Underwood, la première partie réaffirme que l'IA est une technologie fondamentalement nocive.
Extrait (traduit en français) :
L'IA est nocive sur tous les plans. C'est un outil de faussaire imprécis bâti sur le vol du travail de création, la destruction accélérée de l'environnement, les violations des droits humains, l'augmentation des risques psychiques, la sextorsion, l'effondrement de l'éducation et l'érosion de notre sens collectif de la vérité. Et la seule raison pour laquelle elle est partout malgré tout ces dégâts, c'est parce qu'une poignée de miliardaires sociopathes évoluant dans un domaine lourdement dérégulé ont renchéri dessus en la foutant partout.
Quelques centaines d'universitaires français appellent à l’objection de conscience face à l’IA générative en raison des dégâts environnementaux, sociaux (pour les travailleurs du Sud et l'espace informationnel du Nord) et politiques (concentration du pouvoir dans quelqued méga-firmes américaines).
En réponse, le philosophe Gregory Chatonsky défend le devoir de l'université d'explorer les techniques et refuse d'essentialiser l'IA dans sa forme actuelle définie par des intérêts privés (l’IA n’est pas même si elle existe). En réponse aussi, et dans le même esprit, une contre-tribune affirme que refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme.
À ces deux textes, le doctorant en humanités numériques Louis-Olivier Bossard répond dans refuser l’IA sous le signe de l’agnotologie que :
- tout développement technique a des conséquences matérielles et sociales
- les sujets d'étude et méthodes d'expérimentation sont contraintes par des régles et interdits (expérimentations humaines ou animales, conséquences sociales de telle ou telle expérience), c'est l'éthique scientifique qui veut ça
- en conséquence, et il se fait là presque provoquant, que l'ignorance est activement produite, délimitée, décidée collectivement et politiquement par les chercheurs et la société qui les entoure
L'idée d'une AGI est passé en 20 ans de délire mystique marginal à courant de pensée endossé par une partie de la tech américaine. L'auteur note plusieurs caractéristiques de cette idée:
- Un caractère de "foi", i.e. une irrationalité de ses arguments (impossible d'argumenter, tout discours contraire alimente la croyance)
- l'opposition entre ceux qui y croient, qui "ressentent" cette imminence, et les incrédules
- le sentiment d'importance métaphysique donnée à leur propre travail par ces croyants chez OpenAI et consorts (fabriquer Dieu, ça flatte l'égo)
Il relie ça au complotisme (le lien me semble assez mal étayé, je ferai davantage le lien avec une foi religieuse).
De façon plus intéressante, Will Douglas Heaven décrit :
- l'origine de cette notion (entreprises et personnes) : Webmind, DeepMind, OpenAI, Goertzel, Legg
- leur obstination dans un milieu tech qui les prend pour des fous
- la +/- conversion de Thiel à ces idées, les légitimant ensuite à coups de $ en finançant OpenAI (2015) tandis que Bostrom la légitime intellectuellement (SuperIntelligence, 2014)
- certains circuits de diffusion (LessWrong)
- la façon dont elles sont actuellement utilisées pour drainer des financements qui apparaitraient sans fondements sinon
Découvert via la recension qu'en fait Hubert Guillaud, Intelligence artificielle générale : le délire complotiste de la tech, dont je recommande la lecture.