Qu’est-ce que l’Intelligence Artificielle (IA) ?


Si des idées similaires existent depuis longtemps, les définitions et les noms des concepts remontent aux années 1950, et quant aux applications spécifiques, il faudrait des décennies de technologie pour le rendre possible. L’IA semble être de plus en plus importante, mais sait-on vraiment ce que signifie cet adage ? Après le matériel et le logiciel, nous travaillons maintenant là-dessus.

petite définition de l’intelligence artificielle

Il s’agit d’un système informatique capable de simuler l’intelligence humaine sur la base d’un ensemble d’algorithmes et de grandes quantités de données. Ceux-ci sont la base d’une prise de décision autonome. De plus, l’IA est conçue pour raisonner, percevoir et apprendre comme nous le faisons. Pour y parvenir, il faut différentes approches dites d’apprentissage automatique, telles que l’apprentissage en profondeur.

A quoi sert l’intelligence artificielle ?

Aujourd’hui, ses domaines d’application sont encore multiples, parmi lesquels on retrouve :

  • sain : Les systèmes experts sont de plus en plus efficaces pour établir des diagnostics médicaux. De plus, d’autres projets pourraient contribuer au développement de nouveaux médicaments à l’avenir.
  • Secteur bancaire et financier : L’intelligence artificielle peut être utilisée pour détecter les transactions frauduleuses ou aider les conseillers à prendre des décisions.
  • transport : Par exemple, le mode Autopilot de Tesla permet à ses véhicules de rouler de manière partiellement autonome. L’intelligence artificielle analyse les images de diverses caméras cachées dans le corps et fournit des réponses appropriées. Plus largement, les transports publics peuvent apporter des avantages significatifs.
  • L’Internet : Les recommandations de produits qui vous sont fournies par Google ou la modération de contenus sur les réseaux sociaux sont également réalisées par l’intelligence artificielle.
  • le jeu vidéo : si cet aspect est rarement le plus net, il progresse dans tous les cas, et Certains jeux ont une IA qui s’ajuste en fonction du comportement du joueur, comme Echo, Publié en septembre 2017.

L’histoire de l’intelligence artificielle

La discipline est née de la Dartmouth Summer School organisée par quatre chercheurs en 1956. Parmi eux se trouvaient Marvin Minsky et John McCarthy. Il y a un an, ils ont sollicité une bourse de la Fondation Rockefeller et ont choisi le nom pour marquer ces esprits. Leur tentative a donc été couronnée de succès, et le terme n’intéresse pas seulement les jurys des années 1950, car il est encore en usage aujourd’hui. Selon ces scientifiques, le but de l’intelligence artificielle est de créer une simulation informatique de nos capacités cognitives. Cependant, certaines des idées que ce concept peut représenter remontent encore plus loin. Par exemple, les anciens poètes ont imaginé des robots habitant une forme de conscience comme la nôtre. En 1943, une poignée de physiciens et mathématiciens rêvaient de reproduire sur ordinateur le support physiologique dont dépendent nos capacités cognitives.

Pionnier de l’Intelligence Artificielle

Alan Turing était un mathématicien britannique, né en 1912 et mort en 1952. Ses divers écrits forment la base de l’informatique et de l’intelligence artificielle. Bien que la discipline ne soit pas née de son vivant, ses concepts, théories et tests ont influencé la plupart des chercheurs dans le domaine. L’une de ses nombreuses réalisations est son extraordinaire anticipation de la façon dont l’intelligence artificielle apprend. En outre, le chercheur est toujours connu pour le test de Turing. Ce procédé tente de répondre partiellement à la question : « Les machines peuvent-elles penser ? ». En effet, il sert à évaluer la capacité d’un automate à imiter une conversation humaine. Étonnamment, la multitude de chatbots ou bots conversationnels sur internet réussissent encore aujourd’hui ce test.

Le premier à réussir le test a été le programme Eugene Goostman en 2014

Le stade de développement de l’intelligence artificielle

Un début prometteur, mais quelques problèmes

Le premier d’entre eux fait suite à l’école d’été de Dartmouth et se caractérise par un fort sentiment d’optimisme. Les laboratoires de recherche sont nés en Amérique et en Europe. Quant aux scientifiques, ils ont développé le langage LISP et le premier programme de traduction, etc. L’économiste américain Herbert Simon a saisi l’élan, prédisant quelque chose d’ambitieux. Selon lui, dix ans, c’est assez de temps pour que les machines nous dominent aux échecs et prouvent des théorèmes mathématiques. Au milieu des années 1960, cependant, le contraire était vrai, lorsque les ordinateurs luttaient pour battre les enfants à l’échiquier et que l’intelligence artificielle recevait une presse négative. En fait, les chercheurs optimistes ont été critiqués pour ne pas avoir fourni de résultats concrets pour étayer leurs prédictions. En plus de cela, il y avait des limitations de la puissance de calcul, ce qui a conduit à l’arrêt des investissements dans le domaine au début des années 1970.

A Voir  Qu'est-ce que la robotique ?

La connaissance est le nouveau moteur des années 80

Cette période marque un regain d’intérêt pour l’intelligence artificielle appelée « systèmes experts »., issue des travaux sur l’importance des connaissances dans le raisonnement. La baisse des investissements au cours de la dernière décennie n’a pas arrêté la recherche ni les progrès. Ainsi, ces avancées ont conduit à la création d’ordinateurs experts capables de simuler le raisonnement humain dans des domaines très spécifiques. Le marché de l’intelligence artificielle a ensuite repris, ce qui a de nouveau inspiré le soutien des pays. En fait, des pays comme le Japon et le Royaume-Uni investissent, et le département américain de la Défense a triplé son budget dans ce domaine. Enfin, dans les années 1980, des programmes dotés de nouvelles capacités sont apparus, comme AARON. Présenté à la conférence AAAI en 1985 par Harold Cohen, qui a produit indépendamment les dessins originaux.

Difficultés et progrès dans les années 1990

L’essor des systèmes experts a conduit à l’effondrement du marché des machines LIPS, remplacé par des ordinateurs de bureau Apple et IBM plus rapides et moins chers. En conséquence, les avantages que ces ordinateurs apportent au domaine de l’intelligence artificielle sont considérablement réduits. Dans le même temps, les subventions à l’industrie se sont de nouveau affaiblies. D’autre part, les systèmes informatiques deviennent de plus en plus puissants et ont accès à de plus en plus de données. Par la suite, l’IA a fait des progrès significatifs dans l’apprentissage, l’exploration de données ou la compréhension et le traitement du langage. C’est aussi durant cette période que l’idée de donner corps à ces programmes intelligents prend la forme de projets spécifiquement destinés à créer des robots. Le domaine des échecs est également bouleversé par l’intelligence artificielle. En 1997, le champion du monde Garry Kasparov est battu par Deepblue, un supercalculateur conçu par IBM.

A Voir  Quels nouveaux produits Apple proposera-t-il en 2021 ?

Big data : une révolution qui touche aussi l’intelligence artificielle

Comme toute l’informatique, le domaine continue d’évoluer à ce jour.. Les années 2000 ont vu l’émergence de robots capables d’effectuer diverses tâches. Prenons un exemple comme ceux conçus par la NASA pour l’exploration sur Mars ou utiles en milieu industriel. L’avènement du web entraîne un nouveau bouleversement touchant l’intelligence artificielle : le big data. Pour quiconque cherche à développer l’intelligence artificielle, le volume considérable de données provenant de multiples sources hétérogènes ressemble à une mine d’or. En fait, les limites du nombre de bases d’apprentissage et de thèmes pour ces programmes sont très floues. De tels progrès apporteront évidemment de nouveaux problèmes. Tous les départements qui minent le big data doivent trier les informations au préalable car il est impossible de tout gérer.

L’IA apprend des autres jeux

Dans le continuum de Deepblue, d’autres programmes ont triomphé dans une confrontation différente avec l’esprit humain. En 2011, IBM a ajouté Watson, conçu pour répondre à des questions verbales, au jeu vidéo Jeopardy !. Bien que le spectacle ait eu deux grands champions, c’est le spectacle qui a gagné. Dans le cas de la société britannique Deepmind, AlphaGo est une intelligence artificielle Go-playing qui a commencé son développement en 2010 et a battu l’un des meilleurs joueurs du monde, Lee Sedol, 4-1 en 2016. Pourquoi est-ce un exploit ? Parce que Go a un grand nombre de possibilités, il est impossible pour les ordinateurs et les humains de calculer. En conséquence, AlphaGo a dû apprendre le go en « regardant » des jeux d’experts, puis en jouant contre lui-même des millions de fois.

apprentissage de l’intelligence artificielle

Le machine learning ou machine learning est un terme qui regroupe toutes les techniques d’intelligence artificielle utilisant des données pour apprendre. Cette volonté d’automatiser ce processus remonte aux années 1950, quand on s’est rendu compte que le coder était encore très fastidieux. Ce domaine de la connaissance s’est énormément développé en raison du développement de la puissance de calcul. Ainsi, il existe 3 approches en apprentissage automatique :

  • Apprentissage automatique supervisé : Un algorithme donne un exemple, avec une étiquette indiquant à quoi il correspond. Par exemple, si nous montrons à l’IA différentes formes géométriques et leurs noms, elle finira par les reconnaître d’elle-même.
  • Apprentissage automatique non supervisé : Les algorithmes ne donnent que des exemples et l’IA déduit leurs étiquettes.
  • apprentissage par renforcement : L’IA apprend grâce aux récompenses et aux punitions renvoyées par son environnement. Par conséquent, le programme s’améliore avec l’expérience.

Qu’est-ce que l’apprentissage en profondeur ?

Il s’agit d’une variante de l’apprentissage automatique supervisé rendue possible par les avancées technologiques. En fait, les « neurones » de l’IA peuvent désormais s’étendre sur plusieurs couches, chacune pouvant contenir des centaines de milliers de connexions. Certaines de ces couches…