
Depuis sa mise en ligne fin novembre, ce robot conversationnel créé par OpenAI fascine par son potentiel vertigineux de création de contenus rédactionnels autant qu’il inquiète par ses potentielles dérives.
Il tient une conversation naturelle, compose des poèmes et propulse l’intelligence artificielle (IA) comme jamais dans nos quotidiens. ChatGPT (pour « chat with pre-trained langage model », en anglais) est un projet de pointe lancée par OpenAI — un institut de recherche, à la base non lucratif, créé en 2015 par le fantasque Elon Musk et Sam Altman. Faisant appel à une technologie baptisée GPT3, qui utilise des algorithmes de traitement automatique du langage, ce robot conversationnel comprend, analyse et traite dans leur contexte jusqu’à 3500 mots à la fois et dans plusieurs langues, dont le français.(...)
Lire aussi :
GPT-4, le bond exponentiel après ChatGPT
La vitesse à laquelle l’intelligence artificielle (IA) évolue est déjà folle. L’arrivée attendue vers la fin 2023 de GPT-4, la prochaine génération du système qui donne vie aux interfaces ChatGPT et Dall-E, va encore plus accélérer la tendance. (...)
Où s’arrêteront ces avancées ? Il semble difficile de le prédire. En revanche, on doit déjà penser aux effets pervers que ces systèmes auront sur le quotidien de nombreuses personnes si on ne les encadre pas très rapidement. (...)
Un tel système, selon la définition acceptée, aurait la forme d’un logiciel auquel on pourrait poser à peu près tout type de problème et qui saurait comment trouver la bonne solution. Une telle IA pourrait en principe effectuer toutes les tâches intellectuelles que les humains sont capables d’accomplir.
Évidemment, pour y arriver, une telle IA devra être en mesure de faire la distinction entre ce qui est vrai, et pas seulement vraisemblable, et ce qui est faux, même si c’est probable. Idéalement, ses créations, ses oeuvres, devraient être authentiques, et pas seulement un collage de styles ou d’inspirations manifestement repiquées à d’autres. C’est plus apparent du côté du générateur d’images Dall-E, qui est meilleur dans l’imitation du coup de crayon ou de pinceau d’artistes déjà existants qu’il l’est dans le développement de sa propre signature visuelle. (...)
Autrement dit, même imparfaite, l’IA actuellement accessible par Internet fait déjà sentir sa présence un peu partout. Comme d’habitude, à peu près personne n’était prêt à voir un site Web en apparence tout à fait banal venir transformer radicalement ses habitudes. Surtout pas les gouvernements.
Cela serait bien qu’un cadre pour limiter les abus et les travers de l’IA de demain puisse voir le jour… aujourd’hui. Et pas dans cinq ans. L’Europe pourrait adopter son propre cadre l’été prochain.
Ce ne sera pas trop tôt, étant donné que la prochaine mise à niveau des Dall-E et ChatGPT de ce monde est attendue au courant de l’année.
GPT-4
Mis en ligne au début de décembre 2022, ChatGPT n’a eu besoin que d’une semaine pour secouer l’Internet en entier. Ce logiciel Web repose sur un modèle d’apprentissage machine appelé GPT-3. C’était, à ce moment, la plus récente version du modèle de « Generative Pre-trained Transformer » produit et constamment développé par les chercheurs d’OpenAI, la société à l’origine de ce système.
Dans sa compréhension et sa génération de texte ou de langage, le système GPT-3 traite l’information qu’il reçoit à partir de 175 milliards de critères différents. C’est énorme ! C’est d’ailleurs un problème grave de cette technologie : elle est extrêmement énergivore.
Pourtant, ce n’est rien à côté de ce que sera GPT-4, son itération suivante. Selon ce que les dirigeants d’OpenAI ont indiqué dernièrement, GPT-4 pourrait traiter l’information en fonction d’un nombre de critères que les rumeurs situent entre 1 et 100 billions (soit entre 1000 et 100 000 milliards de critères).
Ce système sera beaucoup plus puissant ; il lira presque dans nos pensées !
Il pourrait mieux comprendre nos intentions derrière les questions qu’on lui pose, sans qu’elles soient explicites. Il pourrait aussi répondre d’une façon plus naturelle encore, ou en tout cas, capable de mieux imiter une conversation humaine.
OpenAI connaît les limites de sa technologie et pourrait inclure dans GPT-4 des garde-fous qui limiteront la capacité de l’IA à inventer des faussetés. Cela pourrait prendre la forme d’algorithmes d’apprentissage par renforcement prenant davantage en compte la réaction des utilisateurs. (...)
Et cela devrait arriver en 2023…