Quelques centaines d'universitaires français appellent à l’objection de conscience face à l’IA générative en raison des dégâts environnementaux, sociaux (pour les travailleurs du Sud et l'espace informationnel du Nord) et politiques (concentration du pouvoir dans quelqued méga-firmes américaines).
En réponse, le philosophe Gregory Chatonsky défend le devoir de l'université d'explorer les techniques et refuse d'essentialiser l'IA dans sa forme actuelle définie par des intérêts privés (l’IA n’est pas même si elle existe). En réponse aussi, et dans le même esprit, une contre-tribune affirme que refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme.
À ces deux textes, le doctorant en humanités numériques Louis-Olivier Bossard répond dans refuser l’IA sous le signe de l’agnotologie que :
- tout développement technique a des conséquences matérielles et sociales
- les sujets d'étude et méthodes d'expérimentation sont contraintes par des régles et interdits (expérimentations humaines ou animales, conséquences sociales de telle ou telle expérience), c'est l'éthique scientifique qui veut ça
- en conséquence, et il se fait là presque provoquant, que l'ignorance est activement produite, délimitée, décidée collectivement et politiquement par les chercheurs et la société qui les entoure