La question semble pour certains stupides, pour d'autres elle est complexe.
J'ai rencontré dans mes échanges de nombreux spécialistes de l'I.A. qui défendaient la thèse de la boite noire, à savoir que l'algorithme entrainé ne permettait pas à l'homme de comprendre comment ou pourquoi il obtenait tel ou tel résultat. D'autres personnes me disaient au contraire que toute I.A. était lisible puisque le code de départ était réalisé par un humain. Bien documenté, ce code permettait à coup sûr de savoir comment fonctionnait l'Intelligence Artificielle et que donc, on pouvait considérer toute I.A. comme une boite blanche.
Evidemment, votre serviteur a toujours penché pour un système à boite noire, étant entendu qu'un humain ne peut pas embrasser dans sa mémoire les milliards de paramètres et de données aujourd'hui utilisés pour arriver aux résultats par exemple de Multi-GPT.
Un humain ne peut pas embrasser dans sa mémoire les milliards de paramètres d'un algorithme d'I.A.
Cette idée de "boite blanche" a cependant réussi à se frayer un chemin jusqu'aux plus hautes instances européennes qui, persuadées qu'elles sont les dernières défenses de l'Occident éthique et impeccable, ont décidé de légiférer encore et toujours au sujet des I.A. en se basant entre autre sur cette utopie de boite blanche. Et donc, si l'on part du principe qu'on sait ce qui se passe dans le moteur, tout va bien, on peut apposer des lois et contrôler le phénomène, ça rassure.
Et pourtant, et pourtant, les I.A. sont bien des boites noires. Ne le seraient-elles pas que des petits malins feraient tout pour empêcher les éventuelles rétro-ingenieries qui permettraient de les comprendre. C'est de bonne guerre (économique). Mais il n'y a pas besoin de camoufler quoi que ce soit: le cerveau humain face à une I.A., c'est un peu comme une fourmi qui pense pouvoir arrêter un tsunami en ramant avec ses six pattes.
Le cerveau humain face à une Intelligence Artificielle, c'est un peu comme une fourmi qui pense pouvoir arrêter un tsunami en ramant avec ses six pattes.
Dans le même ordre d'idée, il me semble important d'arriver à abandonner nos utopies. Celle d'une éthique des I.A. me semble prioritaire : non, nous n'arriverons pas à mettre en place une "éthique des I.A." ne serait-ce que parce que l'éthique, la morale d'une civilisation en quelque sorte, n'est pas la même en Europe, aux Etats-Unis ou en Chine. Evidemment, il faut continuer à proposer des améliorations en terme de réflexion éthique, mais ce que je veux dire, c'est que tenter de se poser en "gendarme éthique du monde" fait partie des beaux discours politiques à court terme qui ne font rien avancer. Et on voit les dernières avancées magistrales dans ce domaine : l'Europe cherche à bannir Twitter après s'être rendue compte qu'elle ne contrôlait rien du tout. Un aveu de faiblesse qui jure mais qui dévoile la véritable puissance des réseaux sociaux supra-nationaux.
Alors, si on laisse de côté l'éthique et la connaissance de ce qui se passe dans le ventre de ces algorithmes vertigineux, que reste-t-il ?
Tout simplement un système de police, de contrôle, qui se joue à côté, en parrallèle de l'I.A. surveillée. Un tel système sera nécessairement une autre I.A. qui aura pour but de contrôler et de scanner en profondeur un algorithme pour vérifier que sur un territoire éthique défini, ce programme remplira bien les normes et critères que nous auront établis. Critères qui par ailleurs, ne seront pas forcément les mêmes que ceux des indiens, brésiliens, pakistanais ou toute autre population.
J'ai beau retourner le problème dans tous les sens, j'en reviens toujours à la même conclusion: seule une I.A. aura la capacité de traitement et de mémorisation suffisante pour analyser une autre I.A.
Ainsi, la seule start-up qui vaille la peine d'être poussée en Europe sera celle qui proposera ce type d'I.A. de contrôle.
A bon entendeur...
Stéphan Le Doaré
コメント