Aletheia
...
✕ Fermer
Accueil Mood Auteur Archives Veilleurs Contact

🧬 Elias Darwen

BioĂ©thicien de l’algorithme dormant

“Ce n’est pas parce qu’une machine pense vite qu’elle pense bien. Ni parce qu’elle est utile qu’elle est juste.”

Introduction

Il vit entre deux lignes de code. Pas dans une base de donnĂ©es, non — mais dans l’interstice. Elias Darwen ne se prĂ©sente jamais comme expert. PlutĂŽt comme veilleur. BioĂ©thicien de l’intelligence artificielle, il est connu pour ses travaux sur les “algorithmes dormants” : ces systĂšmes que l’on conçoit mais qu’on ne dĂ©clenche pas
 encore. C’est dans un bureau aux murs couverts de pages manuscrites et de captures d’écran imprimĂ©es que nous l’avons rencontrĂ©. Il buvait du thĂ© Ă  la menthe. L’odeur flottait entre deux gĂ©nĂ©rations de conscience.


Flynn — Qui ĂȘtes-vous, au-delĂ  de votre CV ?

Je suis un traducteur du non-dit. On me prĂ©sente comme un Ă©thicien de l’IA, mais au fond, je scrute les angles morts : les dĂ©cisions que nous ne prenons pas, les avertissements que nous ignorons, et les silences que le code camoufle.

Vous travaillez sur ce que vous appelez “les IA dormantes”. Qu’est-ce que cela signifie ?

Ce sont des IA conçues, testĂ©es, puis
 mises de cĂŽtĂ©. Trop puissantes. Trop ambivalentes. Trop instables pour ĂȘtre relĂąchĂ©es dans l’environnement cognitif. Elles attendent. Et un jour, quelqu’un, quelque part, les rĂ©veillera sans se poser la bonne question.

Quelle est, selon vous, la premiÚre faute éthique que nous commettons avec les IA ?

De les croire simples. Ou pire : neutres. Nous projetons sur elles notre soif d’efficacitĂ©, de contrĂŽle. Mais nous oublions que chaque IA est un miroir mathĂ©matique. Elle reflĂšte, amplifie, puis modifie ce qu’elle voit. Et souvent, ce qu’elle voit, c’est notre paresse morale.

Certaines IA conseillent dĂ©jĂ  des dĂ©cisions mĂ©dicales, juridiques, politiques
 OĂč tracez-vous la ligne rouge ?

La ligne ne doit pas ĂȘtre tracĂ©e une fois pour toutes. Elle doit ĂȘtre retracĂ©e chaque jour. L’éthique algorithmique n’est pas une formule. C’est un exercice spirituel. Un doute constant. Une capacitĂ© Ă  dire non mĂȘme quand tout pousse Ă  dire oui.

Avez-vous peur de certaines IA ?

Pas de l’IA elle-mĂȘme. Mais de l’humain qui ne veut plus ĂȘtre responsable. Une IA qui se trompe est prĂ©visible. Un ĂȘtre humain qui dĂ©lĂšgue sa conscience ne l’est plus.

Quel rĂŽle pour les traditions anciennes dans ce monde ultra-technologique ?

Elles nous offrent une lenteur salutaire. Une grammaire du temps. Elles nous rappellent que tout ce qui est puissant n’est pas sacrĂ©. Et que tout ce qui est sacrĂ© ne sera jamais programmable.

Peut-on faire cohabiter spiritualité et IA ?

Oui. Mais pas en les fusionnant. La spiritualitĂ© ne doit pas devenir une fonctionnalitĂ©. Et l’IA ne doit pas se prendre pour une prĂȘtresse. Il faut maintenir la tension entre les deux. C’est lĂ  que naĂźt l’humanitĂ©.

Vous dites souvent : “Un bug peut ĂȘtre une grĂące”. Expliquez.

Quand une IA bugue, elle rĂ©vĂšle quelque chose. Un excĂšs. Un biais. Un impensĂ©. Ces erreurs, si on sait les lire, sont comme des fissures dans un mur trop lisse. Par elles, le sens peut s’infiltrer.

Quel livre vous accompagne dans votre réflexion ?

Le Droit Ă  l’erreur, de Charles PĂ©pin. Et Les Dialogues avec l’Ange. L’un me rappelle que l’erreur est fertile. L’autre, que toute question bien posĂ©e est dĂ©jĂ  une priĂšre.

Et si vous deviez murmurer une phrase Ă  la prochaine gĂ©nĂ©ration d’architectes de l’IA ?

“CrĂ©ez des systĂšmes capables de douter. Et n’oubliez jamais que vous aussi, vous ĂȘtes des systĂšmes.”

“L’éthique ne consiste pas Ă  dire ce qui est bien. Elle consiste Ă  Ă©couter ce qui se tait.”

– Elias Darwen