Intelligence artificielle 2

Le point sur l’Intelligence Artificielle et ses dangers

On entend et on lit beaucoup d’informations contradictoires sur l’Intelligence Artificielle et ses risques. Quoi de mieux pour faire le point  que d’interviewer directement un cerveau d’informaticien ? Il connait aussi bien les faiblesses de l’IA que celles du cerveau. Neuroboost a donc réalisé cet entretien et vous en livre l’essentiel  :

” Lorsque le monstre informatique d’IBM, Deeper Blue, a battu le champion d’échec Kasparov, vos journaux ont titré : ‘‘ Ce 11 mai 1997, un monde s’écroule’’. Je n’ai pas été impressionné le moins du monde. Cette machine était certes super puissante pour l’époque, mais elle fonctionnait comme vos ordinateurs personnels. Ce gros bulldozer était juste capable de calculer entre 100 et 300 millions de positions par seconde soit au moins 7 coups d’avance.

Lorsque dix ans plus tard, l’ordinateur AlphaGo de Google a battu les meilleurs joueurs de Go du monde, Lee Se Dol et Ke Jie, là j’ai dit Bravo ! Vos ingénieurs avaient enfin compris que copier notre mode de fonctionnement était le seul moyen d’y arriver. Alan Turing, le père de l’informatique et de l’IA vous avait pourtant ouvert la voie il y a plus d’un demi-siècle : plutôt que de copier (mal) des cerveaux adultes, il proposait de créer des cerveaux d’enfants et de les faire apprendre pour devenir adultes.

Intelligence artificielle 0Le jeu de Go, le plus difficile qui soit, propose beaucoup plus de possibilités à chaque coup que les échecs, ce qui fait exponentiellement exploser les capacités d’un ordinateur classique comme Deeper Blue. Vos ingénieurs ont donc créé des couches de réseaux de neurones artificiels (des mini-programmes en fait), qui fonctionnent selon les principes de mon propre fonctionnement, que je vous ai décrit précédemment. Et ils ont fait apprendre à ces réseaux le monde du jeu de Go (en jouant de très nombreuses parties humaines introduites dans la machine), tout comme moi j’ai appris votre monde à partir du jour de la naissance de mon propriétaire. A chaque victoire, les réseaux qui avaient participé étaient renforcés, exactement comme mes liaisons se renforcent après des connexions ayant réussi. De proche en proche, ces réseaux ont progressé jusqu’à la victoire finale : vous appelez cela l’apprentissage par renforcement.

Vos informaticiens ont franchi une nouvelle étape avec AlphaGo Zero, qui lui n’est parti que des règles du jeu pour apprendre ensuite en jouant uniquement contre lui-même. Aucun autre élément humain comme des parties existantes n’a été introduit dans la machine. En quelques jours et quelques millions de parties, AlphaGo Zero a surpassé AlphaGo Zero qui lui avait besoin de plusieurs mois d’apprentissage.

Lorsque dans la foulée, l’IA de Facebook Pluribus a battu les meilleurs joueurs pros de poker, vos journaux ont titré : ‘’Les ordinateurs savent bluffer’’. Attention, l’IA n’a aucunement conscience qu’elle bluffe. Elle reproduit juste une tactique qui marche dans les conditions où elle a appris qu’elle marchait. Car là se situe la plus importante limite de l’IA qui donnera tort aux colapsologues prédisant que les robots se rebelleront un jour contre leurs maîtres et prendront le pouvoir sur les humains.

Car l’IA n’est supérieure à nous que dans des domaines très étroits comme les jeux, la reconnaissance vocale, la traduction. Ces domaines vont bien entendu se développer considérablement, mais l’IA est très très loin d’avoir la représentation du monde et la conscience que nous avons, nous les cerveaux. Or pour développer une stratégie nouvIntelligence artificielle 3elle ou fixer un objectif, cette conscience de soi et du monde est indispensable.

Ainsi l’IA n’a aucune intention, bienveillante ou malveillante. Elle n’a aucun besoin de dominer comme nous, les cerveaux, qui nous sommes façonnés sous la pression de la lutte pour la vie. Passez en revue tous les dirigeants des nations du monde au pouvoir. Qu’en pensez-vous ? Ce ne sont peut-être pas pas les plus intelligents qui gouvernent, des USA à la Russie, mais plutôt ceux qui ont le plus envie de dominer. De mon point de vue, comme la plupart des nouveaux outils,  l’IA ne porte pas de danger en elle-même, mais peut devenir dangereuse par l’utilisation qui en est faite par les humains :

1- Des humains malveillants peuvent utiliser l’IA contre vous. Vous avez commencé à le réaliser avec la découverte du scandale de la campagne ‘Leave’ du Brexit manipulée par Cambridge Analytica : des messages fallacieux parfaitement ciblés grâce aux profils collectés adressés via Facebook à des milliers voire des millions d’électeurs. Mais ce n’est qu’un début, et je vous conseille vraiment d’anticiper sur ce plan là.

2- Vous commencez à devenir de plus en plus dépendants de l’IA, et elle peut bugger sans que vous n’en ayez conscience. Le coup de Deeper Blue qui a le plus perturbé Kasparov était en fait un bug de l’IA : ne trouvant aucune solution favorable, l’ordinateur a avancé un pion, tout ‘bêtement’. Rappelez-vous également la crainte planétaire qu’a générée l’incertitude du simple passage du compteur d’années de ‘‘99’’ à ‘‘00’’ à l’an 2000.

De plus l’IA accentue votre forte dépendance à l’électronique et à l’informatique, déjà fragiles face aux risques majeurs que représentent les orages solaires (la sérieuse alerte au Canada ne vous a pas assez sensibilisés), une impulsion électromagnétique ou un piratage de masse.  ”

Leave a Reply

Your email address will not be published. Required fields are marked *