L’intelligence artificielle Le terme “intelligence artificielle” peut induire en erreur. Parce qu’il sous-entend que les machines ont la même intelligence que les humains. Aujourd’hui, il serait plus exact de dire que l’intelligence artificielle est une forme d’intelligence démontrée par des machines. Le but étant de leur confier certaines tâches faites par les humains.
Il y a plusieurs branches dans l’intelligence artificielle. Citons par exemple la vision (qui a trait à la capacité d’une machine à reconnaître un objet), ou encore le langage (qui a trait à la capacité d’une machine à comprendre un texte ou un discours).
Même si l’intelligence artificielle est souvent comparée à l’intelligence humaine, il faut noter que les algorithmes d’intelligence artificielle sont très consommatrices en énergie. Raison pour laquelle OpenAI, la société mère de chatGPT, a besoin d’énormément d’investissements pour financer la gigantesque puissance de calcul que nécessite l’application.
En comparaison, un neurone du cerveau humain ne nécessite que 0.07 Volt pour fonctionner (20 fois moins qu’une pile).
De plus, il y a des problèmes très complexes qui ne demandent pas beaucoup d’efforts à un être humain mais qui sont beaucoup plus difficiles à résoudre pour une machine.
Prenons un problème tout simple qui serait celui de reconnaître un chat sur une photo. C’est une tâche très facile pour un enfant de 2-3 ans. Pour un programme informatique traditionnel, c’est une tout autre paire de manches. La photo ci-dessous serait difficilement reconnaissable comme étant celle d’un chat, par un programme informatique.
En effet, avant les algorithmes d’IA, on écrivait des programmes informatiques en expliquant à la machine comment effectuer toutes les fonctions nécessaires à la réalisation d’une tâche (et c’est encore le cas pour la plupart des logiciels). Si on prend l’exemple d’une calculatrice, c’est un programme informatique simple. On donne à l’ordinateur les différentes règles de calculs. Lorsque l’utilisateur fait une multiplication, le programme fait appel à la fonction de multiplication et donne le résultat. Il est très difficile d’écrire une fonction pour reconnaitre un chat.
C’est ici qu’intervient ce que tout le monde appelle l’intelligence artificielle. Dans le cas de notre problème de reconnaissance de chat, il s’agirait d’entraîner un programme sur un jeu de photos le plus large possible. Dans ce jeu de données, on lui dirait quelles photos contiennent des chats et quelles photos n’en contiennent pas (ça s’appelle l’étiquetage ou labeling en anglais). Le résultat de cet entraînement est ce qu’on appelle un “modèle”. Ce modèle peut alors être utilisé par une application informatique qui permet de reconnaître une photo (ou une vidéo) de chat. C’est ce processus que l’on appelle apprentissage automatique (ou Machine Learning en anglais). L’apprentissage automatique est un sous-ensemble de l’intelligence artificielle.
ChatGPT Mais comment on en arrive à ChatGPT?
En 2017, Google a publié un papier qui s’intitule “Attention Is All You Need”. Dans ce papier, Google présente un modèle simple de réseaux de neurones appelé Transformer basé sur un mécanisme appelé “Self-attention”. Ce mécanisme va permettre de faire un bon dans l’amélioration des modèles LLM (Large Language Model). Tout cela a abouti à des modèles “prêts à l’emploi” comme BARD (de Google) et GPT (Generative Pre-trained Transformers d’OpenAI).
Ces modèles sont le résultat entre autres de l’accumulation d’un large nombre de données textuelles présentes sur la toile, comme tous les articles de Wikipédia et le contenu du site Reddit par exemple. ChatGPT a ainsi une connaissance gigantesque des données présentes sur internet jusqu’en 2021.
Essayons de résumer simplement ce que chatGPT sait faire. ChatGPT a accès à une large base de connaissances. Il a un large modèle qui lui permet de comprendre les questions qu’on lui pose. Son job, c’est de répondre à ces questions en associant sa compréhension avec sa large base de connaissances.
Avant chatGPT, GPT a été utilisé par Microsoft qui a créé un produit appelé GitHub Copilot. C’est un puissant assistant de code qui anticipe et comprend le code informatique qu’un développeur veut écrire et l’écrit pour lui. C’est un outil qui démultiplie la productivité du développeur informatique.
ChatGPT 3.5 (la version actuelle) peut, sur demande, aider à écrire des emails, des articles de journaux, des contrats, traduire des textes… De plus, la très rapide adoption de chatGPT va aider le modèle à s’améliorer en utilisant le retour des utilisateurs. Parce que chatGPT fait des erreurs et que le retour des utilisateurs lui permet de corriger son modèle.
Est-ce que chatGPT va faire disparaître des métiers? Certainement. Certains métiers vont devenir des commodités. Mais d’autres métiers verront le jour.
C’est un outil surpuissant qui va s’améliorer au fur et à mesure des versions. Mais il n’est pas forcément simple à utiliser pour en tirer le meilleur. Il comprend le contexte de la conversation et pour obtenir de meilleures réponses de sa part, il faut l’aider un peu, en situant bien le contexte. Par exemple, si on veut qu’il nous aide à écrire un contrat, il ne suffit pas de lui demander de nous écrire un contrat. Il faut lui expliquer qui sont les parties, quels sont les enjeux… La réponse de chatGPT sera alors meilleure, même si elle nécessitera certainement quelques ajustements.
Ces modèles ne sont pas infaillibles et ils se basent sur la connaissance humaine. Sur des sujets pointus, ils peuvent se tromper. C’est le cas de BARD de Google qui a affirmé que le télescope James Webb Space a pris la première photo d’une planète en dehors du système solaire. Ce a quoi des astronautes sur twitter ont répondu que c’était faux ; la première photo aurait été prise en 2004, comme indiqué sur le site de la NASA.
L’Intelligence Générale Artificielle Mais beaucoup confondent ce genre d’erreurs avec la peur de l’intelligence générale artificielle (ou Artificial General Intelligence - AGI) qui fait si peur à Elon Musk. D’ailleurs, la naissance d’OpenAI dans laquelle il a investi au tout début résulte de ses craintes.
En effet, OpenAI était censé, au départ, être un projet à but non lucratif et qui devait empêcher la naissance d’une intelligence artificielle générale qui pourrait faire du mal à l’humanité.
L’intelligence générale artificielle serait la réunion en une seule intelligence de toutes les branches (vision, langage, créativité…) de l’intelligence artificielle et aurait potentiellement une sorte de conscience. Elle pourrait éventuellement prendre ses propres décisions. C’est ce que l’on appelle la Singularité; un point de non retour. Pour certains, on en est très loin. Pour d’autres, pas tant que ça.