Intelligence Artificielle GPT-4

Lors de sa première conférence développeur, OpenAI a dévoilé plusieurs avancées majeures dans le domaine de son IA générative.

Parmi les annonces, on compte la présentation de GPT-4 Turbo, une version améliorée de son modèle phare, ainsi que la mise en avant de nouvelles fonctionnalités permettant la personnalisation des assistants. De plus, OpenAI a également abordé des questions juridiques en lançant son offre "Copyright Shield", démontrant ainsi son engagement envers la protection des droits d'auteur.

En seulement un an, OpenAI a connu une croissance impressionnante, à tel point qu'elle a récemment organisé sa première conférence développeur à San Francisco. Lors de son discours inaugural, Sam Altman, le PDG de l'entreprise, a dévoilé les nombreuses avancées dans le domaine des solutions d'IA génératives. Avant de plonger dans les détails de ces avancées, le dirigeant a partagé quelques chiffres significatifs sur l'utilisation de ces technologies : ChatGPT compte désormais plus de 100 millions d'utilisateurs hebdomadaires actifs, et plus de 2 millions de développeurs créent des applications en utilisant les API d'OpenAI.

En ce qui concerne la mise à jour des connaissances, GPT-4 Turbo intègre des informations sur les événements jusqu'à avril 2023, une amélioration notable par rapport à sa version précédente qui s'arrêtait aux événements de septembre 2021. En ce qui concerne les coûts, l'utilisation de GPT-4 Turbo en tant qu'API coûterait un tiers de moins que GPT-4 pour les tokens d'entrée (à 0,01 $ pour 1 000 tokens) et la moitié de moins que GPT-4 pour les tokens de sortie (à 0,03 $ pour 1 000 tokens). Dans la même optique, OpenAI a également réduit les tarifs de ses modèles d'API GPT-3.5 Turbo. De plus, OpenAI a annoncé son intention de doubler la limite de tokens par minute pour tous les clients payants de GPT-4, en autorisant également les demandes d'augmentation des limites de débit.

La grande annonce du DevDay concerne la présentation de GPT-4 Turbo, qui se distingue par trois caractéristiques essentielles : l'extension de la longueur du contexte, la mise à jour des connaissances, et une tarification compétitive. En ce qui concerne le premier point, les modèles de langage à grande échelle fonctionnent avec une "fenêtre de contexte", définissant la quantité de texte qu'ils peuvent traiter simultanément, mesurée en tokens, des fragments de mots. Un token équivaut à environ quatre caractères de texte en anglais, soit environ les trois quarts d'un mot. Avec GPT-4 Turbo, le nombre de tokens passe à 128 000, contre 8 000 précédemment (extensible à 32 000 via une API pour certains développeurs). Cette avancée permet à OpenAI de rattraper son retard par rapport à Anthropic, qui avait annoncé une version de 100 000 tokens pour ses modèles Claude et Claude 2.

TOUT COMPRENDRE - Fin RTC