[embedded content] Deep Blue est un superordinateur spécialisé dans le jeu d’échecs par adjonction de circuits spécifiques, développé par IBM au début des années 1990. (Wikipédia) Qu’est ce que la cybernétique ? – Nathanaël Leroy [embedded content] Les bases de la Cybernétique qui est la science des communications dans un système ! Norbert Wiener [embedded content] Vidéo très didactique pour pénétrer le monde de la cybernétique, dans le but de mieux appréhender les mutations complexes liées à la globalisation et au transhumanisme.Aux origines de l’intelligence artificielle. France Culture 31/03/2018 Par Lise Verbeke « L’intelligence artificielle se définit comme le contraire de la bêtise naturelle », selon Woody Allen. La recherche dans ce domaine s’amplifie, une
Topics:
Liliane HeldKhawam considers the following as important: Autres articles
This could be interesting, too:
Liliane HeldKhawam writes L’Humanité vampirisée disponible.
Liliane HeldKhawam writes L’Humanité vampirisée disponible.
Liliane HeldKhawam writes Les enfants dans le collimateur du Nouveau Monde. Enfants volés de GB (Vidéo)
Liliane HeldKhawam writes Les enfants dans le collimateur du Nouveau Monde. Enfants volés de GB (Vidéo)
Qu’est ce que la cybernétique ? – Nathanaël Leroy
Les bases de la Cybernétique qui est la science des communications dans un système ! Norbert Wiener
Aux origines de l’intelligence artificielle. France Culture
31/03/2018 Par Lise Verbeke
« L’intelligence artificielle se définit comme le contraire de la bêtise naturelle », selon Woody Allen. La recherche dans ce domaine s’amplifie, une course mondiale à l’innovation est lancée depuis les années 2000. Mais d’où vient l’intelligence artificielle et que recoupe ce terme ?
Emmanuel Macron ne veut pas que la France « rate le train de l’intelligence artificielle« , conduit par la Chine et les Etats-Unis. Le président de la République a présenté ce jeudi 29 mars un plan ambitieux pour développer les recherches dans ce domaine, en passe de révolutionner l’économie et la société. Mais le train de l’intelligence artificielle compte de nombreux wagons. Retour aux origines de l’expression, et éclairage sur les domaines qu’elle regroupe, alors que France Culture vous propose un forum à ce sujet ce samedi.
Une idée née au milieu du XXe siècle
« L’apparition des ordinateurs, dans les années 1940-1950, semble rendre possible le rêve de l’intelligence artificielle« , écrit Frédéric Fürst, maître de conférence, du laboratoire MIS, Modélisation, Information et Système de l’université de Picardie.
Deux approches de l’IA, l’intelligence artificielle, émergent dans les années 1940 : le connexionnisme et le cognitivisme.
Le connexionnisme est porté par deux neurologues, Warren McCulloch et Walter Pitts, qui proposent de reproduire dans une machine le fonctionnement interne du cerveau humain. Ils inventent le neurone formel, le premier modèle mathématique du neurone.
Le neuropsychologue Donald Hebb crée de son côté, en 1949, une règle qui permet de doter les neurones formels de capacité d’apprentissage. Le cognitivisme, écrit Frédéric Fürst, « considère que la pensée peut être décrite à un niveau abstrait comme manipulation de symboles, indépendamment du support matériel de cette manipulation. Une approche qui établit un lien entre la pensée et le langage, comme système de symboles ». Il souhaite donc développer la traduction automatique sur ordinateur. En pleine période de guerre froide, la traduction automatique du russe vers l’anglais, ou l’inverse, est un gros enjeu.
Le test de Turing
En octobre 1950, le mathématicien britannique Alan Turing signe l’un de ses articles les plus célèbres, sous le titre « Machines de calcul et intelligence ». Ce texte fondateur et visionnaire débute par ces mots :
Je propose de réfléchir à la question : les machines peuvent-elles penser ?
Celui qui avait réussi, grâce à une machine justement, à décrypter les codes secrets des nazis y présente cette fois un jeu dit de l’imitation. A l’époque des tout premiers ordinateurs que la presse baptise « cerveaux électroniques », un test est né. Il entrera dans l’histoire, portant son nom. https://www.youtube.com/embed/k0vmuYQAkW4?feature=oembed À ÉCOUTER AUSSI 59 min La Méthode scientifiqueAlan Turing : l’homme derrière la machine
En 1951, le mathématicien américain Marvin Minsky crée lui une machine, le SNARC (Stochastic Neural Analog Reinforcement Calculator), le premier simulateur de réseau neuronal, qui simule le comportement d’un rat apprenant à se déplacer dans un labyrinthe.
L’apparition du terme « intelligence artificielle »
L’expression Intelligence artificielle en tant que telle apparaît en 1956. « Plusieurs chercheurs américains, dont John McCarthy et Marvin Minsky, très en pointe dans des recherches qui utilisent des ordinateurs pour autre chose que des calculs scientifiques, se sont réunis à l’université de Dartmouth, dans le New-Hampshire, aux Etats-Unis, détaille Pierre Mounier-Kuhn, chercheur au CNRS et à l’université Paris-Sorbonne. _Leur projet est alors de développer l’intelligence artificielle. Le terme filait bien la métaphore des « cerveaux électroniques » et reprenait le projet cybernéticien de marier l’étude du cerveau avec celle des machines.« _
De cet atelier de travail sur les machines pensantes, une expression émerge, celle de l’un de ces chercheurs, John McCarthy, qui parle pour la première fois d’intelligence artificielle.
Ce terme s’est imposé tout de suite, raconte Pierre Mounier-Kuhn. Il était suffisamment frappant, paradoxal et ambigu pour plaire à beaucoup de gens. Il décrivait bien les projets de ces experts, cela parlait au public, et cela permettait de formuler tout un tas de promesses et ainsi d’attirer des crédits.
Trois ans après le séminaire de Dartmouth, les deux pères de l’intelligence artificielle, McCarthy et Minsky, fondent le laboratoire d’intelligence artificielle du Massachusetts Institute of Technology (MIT).
Le mouvement gagne peu à peu la Grande-Bretagne et la France, et les autres pays où l’on commence à utiliser les ordinateurs. « En France, détaille le chercheur, en 1959, un laboratoire, « le centre d’étude de la traduction automatique » est créé et cofinancé par le CNRS, l’armée et l’université de Grenoble « .
Les hivers de l’IA
Mais l’histoire de l’intelligence artificielle n’est pas linéaire. Son développement dépend en majorité des crédits qui lui sont alloués, des effets de mode et des fluctuations financières. « Avec des phases de grand enthousiasme, où affluent les chercheurs et les crédits appâtés par les promesses, explique Pierre Mounier-Kuhn, et puis au bout de quelques années, on déchante, ils alternent avec des phases de désillusion d’autant plus aiguë que les illusions étaient exagérées. Et les organismes qui financent la recherche coupent le robinet pour l’intelligence artificielle. » Cela ne concerne pas uniquement des financements publics mais aussi de grosses entreprises. L’historien et d’autres spécialistes qualifient cela d' »hiver de l’intelligence artificielle ».
Au milieu des années 1960, l’IA connaît son premier hiver. Les promesses de traductions automatiques en masse ne se concrétisent pas. « Des linguistes ont produit des rapports sanglants, ajoute le chercheur, en expliquant que traduire des langues n’est pas qu’un problème d’algorithmes bien conçus, mais qu’il fallait comprendre ce qu’est une langue, donc faire des recherches en amont sur la linguistique théorique. Cela a donc porté un coup arrêt à la traduction automatique, les crédits se sont taris. Mais indirectement cela a rapproché la linguistique et la science alors en plein bouillonnement qui cherchait des modèles dans l’algèbre, avec les informaticiens qui voulaient théoriser les langages de programmation. Ce rapprochement a donné naissance à l’informatique théorique.«
Autre promesse non tenue : en 1958, deux chercheurs avaient promis un ordinateur capable de battre le champion du monde d’échecs, en moins de dix ans. Cet ordinateur d’IBM a été capable de le faire, mais ça n’est arrivé qu’au milieu des années 1990 : en 1997, avec Gary Kasparov contre le programme Deep blue.
https://www.youtube.com/embed/ZIcZymAzifM?feature=oembed https://www.youtube.com/watch?v=ZIcZymAzifM&feature=emb_logo
En 1969, McCarthy et Minsky écrivent un livre commun : Perceptrons, « où ils montrent les limites de l’apprentissage machine (machine learning), ce qui va mettre un coup d’arrêt temporaire aux recherches dans ce domaine », explique Jean-Gabriel Ganascia, chercheur en intelligence artificielle au Laboratoire Informatique de Paris 6 Lip6, président du comité d’éthique du CNRS.
Un nouvel hiver a lieu au milieu des années 1970. « Cela coïncide en plus avec la fin de la guerre au Vietnam, précise Pierre Mounier-Kuhn, où les crédits, qui ont un aspect militaire s’arrêtent ». Dans les années 1980, les Américains réinvestissent dans l’IA, en pleine guerre Russie – Afghanistan. C’est aussi à cette époque qu’est développée l’idée de remplacer l’homme par la machine dans certains métiers.
Le tournant des années 2000
Après l’éclatement de la bulle Internet, au début des années 2000, l’IA est portée par une nouvelle vague, qui dure jusqu’à aujourd’hui. Dans une récente note pour la Fondapol, Serge Soudoplatoff met notamment en avant « les grandes ruptures de 2011 ». Trois ruptures « quasi concomitantes (qui) ont permis à l’intelligence artificielle de franchir une grande étape » :
- l’introduction d’une catégorie d’algorithmes bien plus sophistiqués : les réseaux de neurones convolutifs
- l’arrivée sur le marché de processeurs graphiques à bas coût capables d’effectuer d’énormes quantités de calculs
- la disponibilité de très grandes bases de données correctement annotées permettant un apprentissage plus fin
Les « GAFAM », Google, Apple, Facebook, Amazon, Microsoft, s’imposent au fil des années. Google notamment, car un moteur de recherches est de l’intelligence artificielle par définition, « puisque ses algorithmes doivent comprendre ce que l’utilisateur cherche, aime et pourrait acheter », indique le chercheur du CNRS.
Après l’éclatement de la bulle, le Web 2.0 naît. « Les personnes à l’origine de ce Web 2.0 ne sont pas des techniciens mais des éditeurs, explique Jean-Gabriel Ganascia. Ils ont réuni des industriels et se sont rendus compte que pour que les entreprises puissent survivre, il fallait être capable de recueillir en permanence toutes les informations, les rumeurs, les bruits, pour y faire face mais aussi améliorer les produits. En connaissant les désirs, on peut savoir exactement quoi proposer. Pour exploiter ces grandes quantités d’informations, il fallait des outils informatiques et on s’est tourné vers les outils d’apprentissage d’intelligence artificielle. » À ÉCOUTER AUSSI 2h Les MatinsGoogle, l’Intelligence Artificielle et nous
Avec ce tournant, la recherche sur l’intelligence artificielle se concentre sur trois domaines : la perception automatique de l’environnement, la résolution de problèmes combinatoires et l’apprentissage. Ce dernier constitue la colonne vertébrale de la recherche. L’une des sous-catégories de l’IA s’appelle le Machine learning, un procédé qui permet aux ordinateurs de s’améliorer grâce à l’apprentissage. Dans cette sous-catégorie, se trouve le deep learning, l’apprentissage profond, qui est une « technologie d’apprentissage », basée sur des réseaux de neurones artificiels. Cette technique permet à un programme de reconnaître, entre autre, le contenu d’une image ou de comprendre le langage parlé. Facebook, par exemple, utilise cette technique pour reconnaître et taguer les visages reconnus sur des photos publiées sur le réseau social. « Le deep learning, développe Pierre Mounier-Kuhn, c’est ce qui fait qu’une machine constate ses erreurs, apprend de ses erreurs et en tire des leçons pour améliorer ses performances. Cela demande un très haut niveau de précision.«
La dernière démonstration d’un deep learning abouti date de début 2016, quand le programme de Google, Deep Mind a permis à un ordinateur de battre pour la première fois un joueur professionnel de go (jeu inventé en Chine il y a plus de 3000 ans). Les chercheurs planchaient sur l’algorithme depuis des décennies. L’exploit a été réalisé quasiment 20 ans jour pour jour après la défaite de Kasparov face à Deep blue.
4 types d’intelligence artificielle
Arend Hintze, professeur en biologie intégrative et ingénierie informatique à l’université du Michigan, distingue quatre types d’intelligence artificielle.
- La réactivité, qui est le premier stade de l’intelligence artificielle et le plus développé aujourd’hui. La machine est capable de percevoir le monde autour d’elle et d’agir en fonction de ces perceptions.
- La mémoire limitée, qui permet aux machines de s’appuyer sur des représentations du monde pour prendre des décisions. C’est le cas par exemple des voitures autonomes.
- Le troisième type, selon le professeur, regroupe la théorie de l’esprit. Dans le futur, les robots pourraient appréhender et classifier le monde mais aussi comprendre et hiérarchiser les émotions pour influer sur le comportement humain.
- Enfin, l’auto-conscience, le dernier pallier de l’intelligence artificielle.
L’intelligence artificielle et la conscience
Aujourd’hui, l’investissement dans l’intelligence artificielle est énorme. Emmanuel Macron vient de présenter un plan ambitieux pour lequel l’Etat consacrera 1,5 milliard d’euros d’ici la fin du quinquennat, avec la volonté d’attirer et de retenir les meilleurs chercheurs. La Chine a annoncé cette année un plan d’investissement public de 22 milliards de dollars d’ici 2020. La marge de manœuvre concernant le progrès dans l’IA est grande. Pour Pierre Mounier-Kuhn, « l’intelligence artificielle est un horizon qui recule sans arrêt au fur et à mesure que l’on progresse. » La reconnaissance de visage, de la voix est désormais considérée comme acquis, et est intégrée dans tous les téléphones intelligents.
Reste-t-il des promesses et des horizons à atteindre ? Il y a d’un côté les personnes qui développent des applications ayant un débouché commercial. D’autres sont des « poissons pilotes de l’IA, en se fixant des buts impossible à atteindre, détaille le chercheur, comme la conscience ». L’ordinateur ou le robot peut-il penser ? Peut-il être conscient qu’il pense ?
Ces réflexions durent en fait depuis le début de l’intelligence artificielle. Mais on ne peut pas doter la machine d’une conscience, concept qu’on ne sait pas définir. Or l’IA couvre les processus de pensée, y compris d’apprentissage, que l’on peut définir assez précisément pour les décrire en programmes et les faire simuler par une machine. On peut simuler le raisonnement humain, par exemple dans les années 1960, l’une des premières pistes (en France comme aux Etats-Unis) a été de développer un système d’intelligence artificielle pour démontrer des théorèmes mathématiques, l’une des formes les plus élevées de l’intelligence humaine.