OpenAI lance GPT-4, une IA multimodale avec prise en charge d'images
Intelligence Artificielle

OpenAI lance GPT-4, une IA multimodale avec prise en charge d'images

Juin 7, 2024

ChatGPT est tout ce dont tout le monde peut parler ces derniers temps. Propulsé par les modèles de langage GPT 3 et GPT 3.5 (pour les abonnés Plus), le chatbot IA a grandi à pas de géant dans ce qu'il peut faire. Cependant, beaucoup de gens attendent avec impatience un modèle amélioré qui repousse les limites. Eh bien, OpenAI a maintenant fait de cela une réalité avec GPT-4, son dernier LLM multimodal qui regorge d'améliorations et de technologies sans précédent en matière d'IA. Découvrez tous les détails ci-dessous!

GPT-4 est multimodal et surpasse 3,5

Le modèle GPT-4 récemment annoncé par OpenAI est un élément important dans le domaine de l'intelligence artificielle. La chose la plus importante à mentionner est que GPT-4 est un grand modèle multimodal. Cela signifie qu'il pourra accepter les saisies d'images et de texte en lui apportant une compréhension plus profonde. OpenAI mentionne que même si le nouveau modèle est moins performant que les humains dans de nombreux scénarios du monde réel, il peut toujours présenter des performances humaines à différents niveaux.

GPT-4 est également considéré comme un modèle plus fiable, créatif et efficace que son prédécesseur GPT-3.5. Par exemple: le nouveau modèle pourrait réussir un examen du barreau simulé avec un score se situant autour des 10% des meilleurs candidats (~ 90 centile), tandis que le GPT 3,5 se situait dans les 10% inférieurs. GPT-4 est également capable de gérer des instructions plus nuancées que le modèle 3.5. OpenAI a comparé les deux modèles sur une variété de benchmarks et d'examens et GPT-4 est arrivé en tête. Découvrez toutes les choses intéressantes que ChatGPT peut faire ici.

Lire  Adobe dévoile Firefly, un modèle d'IA créatif pour la génération artistique

GPT-4 et entrées visuelles

Comme mentionné ci-dessus, le nouveau modèle peut accepter des promotions de texte et d'images. Par rapport à une saisie de texte restreinte, GPT-4 s'en sortira bien mieux dans la compréhension des entrées qui contiennent à la fois du texte et des images. Les entrées visuelles restent cohérentes sur divers documents, notamment le texte et les photos, les diagrammes et même les captures d'écran.

chatgpt multimodal

OpenAI a présenté la même chose en alimentant GPT-4 avec une image et une invite de texte lui demandant de décrire ce qui est drôle dans l'image. Comme vu ci-dessus, le modèle a réussi à lire une image aléatoire de Reddit et à répondre à l'invite demandée par l'utilisateur. Il a alors pu identifier l'élément humoristique. Cependant, les entrées d'images de GPT-4 ne sont toujours pas accessibles au public et constituent un aperçu de la recherche.

Sujet aux hallucinations et aux données limitées

Bien que GPT-4 représente un progrès considérable par rapport à sa version précédente, certains problèmes subsistent. Pour commencer, OpenAI mentionne qu'il est toujours pas entièrement fiable et sujet aux hallucinations. Cela signifie que l’IA fera des erreurs de raisonnement et que ses résultats doivent être pris avec le plus grand soin et avec une intervention humaine. Cela pourrait aussi être j'ai tort en toute confiance dans ses prédictions, ce qui peut conduire à des erreurs. Cependant, le GPT-4 réduit les hallucinations par rapport aux modèles précédents. Pour être précis, le le nouveau modèle obtient des résultats 40 % supérieurs à GPT-3.5 dans les évaluations de l'entreprise.

Lire  ChatGPT obtient un accès à Internet via des plugins: consultez les détails ici!

Un autre inconvénient que beaucoup espéraient voir corrigé avec GPT-4 est l’ensemble de données limité. Malheureusement, GPT-4 manque toujours de connaissance des événements survenus après septembre 2021, ce qui est décevant. Elle n’apprend pas non plus de son expérience, ce qui se traduit par les erreurs de raisonnement évoquées ci-dessus. De plus, GPT-4 peut échouer face à des problèmes difficiles, tout comme les humains, y compris des failles de sécurité. Mais il n'y a pas de quoi s'inquiéter puisque Microsoft Bing AI utilise le modèle GPT-4. Oui, vous pouvez essayer le nouveau modèle d'IA, avec le soutien de données Internet en temps réel sur Bing. Consultez cet article pour savoir comment accéder au chat Bing AI dans n'importe quel navigateur, sans se limiter à Edge.

Accédez à GPT-4 avec ChatGPT Plus

GPT-4 est disponible pour les abonnés ChatGPT Plus avec un plafond d'utilisation. OpenAI mentionne qu'il ajustera le plafond d'utilisation exact en fonction de la demande et des performances du système. En outre, la société pourrait même introduire un « nouveau niveau d’abonnement » pour une utilisation à plus grand volume de GPT-4. Les utilisateurs gratuits, en revanche, devront attendre car la société n'a mentionné aucun plan spécifique et seulement 'espère' qu'il peut offrir un certain nombre de requêtes GPT-4 gratuites à ceux qui n'ont pas d'abonnement.

À première vue, GPT-4 s’annonce comme un modèle de langage extrêmement attrayant même avec quelques failles dans son armure. Pour ceux qui recherchent des informations encore plus détaillées, nous avons déjà quelque chose en préparation. Donc restez à l'écoute pour en savoir plus.

1 Comment

  • Je suis impressionné par la qualité de vos recherches. Excellent travail !

Laisser un Commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *