Alors que Meta dévoile sa dernière création, LLaMA 2 vs GPT-4 occupe actuellement l’esprit de nombreux passionnés d’IA. Cependant, l’annonce étonnante de Meta concernant l’open-sourcing de ce formidable modèle de langage a également fait la une des journaux dans une tournure des événements surprenante.
Cette décision a instantanément catapulté LLaMA 2 dans le royaume des titans de l’IA, préparant le terrain pour une confrontation épique avec le célèbre GPT-4 d’OpenAI, la centrale derrière ChatGPT et Microsoft Bing.
LLaMA 2 vs GPT-4 dans diverses comparaisons
LLaMA 2-Chat, une création remarquable, doit son existence au réglage fin et à l’apprentissage par renforcement avec précieux retours humains. Ce processus impliquait la collecte de données sur les préférences et des modèles de récompense de formation, incorporant une nouvelle technique connue sous le nom de Attention fantôme (Gatt). De plus, LLaMA 2-Chat bénéficie d’une formation sur les sorties GPT-4, un facteur essentiel à son développement.
LLaMA 2 contre GPT-4 : notes
Pour évaluer l’efficacité du modèle, Meta a mené une étude humaine en utilisant 4 000 invites, utilisant le “taux de réussite” métrique, similaire à la référence Vicuna, pour la comparer aux modèles open source et fermés comme ChatGPT et PaLM, dans le contexte d’invites à un ou plusieurs tours.
L’impressionnant 70B LAMA 2 modèle fonctionne à égalité avec GPT-3.5-0301 et surpasse les autres modèles tels que Falcon, MPT et Vicuna. Les modèles LLaMA 2-Chat excellent en termes d’utilité pour les invites à un ou plusieurs tours, surpassant les alternatives open source. Avec un taux de réussite de 36 % et un taux d’égalité de 31,5 % par rapport à ChatGPT, LLaMA 2-Chat fait ses preuves.
De plus, il surpasse le modèle MPT-7B-chat sur 60% des invites. Le taux de réussite global du modèle LLaMA 2-Chat 34B est supérieur à 75% contre des modèles Vicuna-33B et Falcon 40B de taille équivalente est un exploit impressionnant. De plus, le Modèle 70B surpasse le modèle de chat PaLM-bison par une marge significative.
LLaMA 2 contre GPT-4 : codage
Cependant, en ce qui concerne le codage entre LLaMA 2 et GPT-4, malgré ses nombreuses réalisations, LLaMA-2 a une faiblesse en matière de codage. Il est en deçà des prouesses de codage présentées par GPT-3.5 (48.1) et GPT-4 (67). Alors que le benchmark MMLU présente les points forts de LLaMA-2, HumanEval révèle que sa capacité de codage est quelque peu inférieure par rapport aux modèles explicitement conçus pour le codage, comme StarCoder (33.6). Néanmoins, compte tenu des poids ouverts de LLaMA-2, il est fort probable qu’il subira des améliorations significatives au fil du temps.
LLaMA 2 contre GPT-4 : écriture
En ce qui concerne l’écriture, LLaMA-2 et GPT-4 présentent des différences marquées. Leurs approches de écrire de la poésie, par exemple, ne pourrait pas être plus distinct. ChatGPT emploie choix de mots intentionnels, concentré sur phonétique et un vocabulaire plus élaboré, semblable à un poète habile avec un large éventail d’expressions. En revanche, LLaMA-2 opte pour une sélection de mots rimés plus simple, semblable à un poème de lycée.
J’ai demandé à la fois à Llama-2 et à GPT-4 d’écrire un poème sur leur compétition épique. Devinez lequel est lequel.
========= Poème 1 =========
Dans la grande tapisserie du tissage de la technologie,
Où l’information tourne et les idées se fendent,
Deux personnages se tiennent debout, leurs histoires s’entremêlent,
GPT et Llama-2,…– Jim Fan (@DrJimFan) 18 juillet 2023
Bien qu’il ait été formé à plus petite échelle, LLaMA-2 a recueilli des sorties dignes d’éloges, selon les commentaires de plusieurs utilisateurs qui ont eu accès à la version bêta. L’approche de Meta, utilisant initialement des données accessibles au public et en l’enrichissant plus tard avec des données de haute qualité, a efficacité prouvée à obtenir de meilleurs résultats avec moins d’exemples. Les résultats du modèle ont été observés comme étant comparables aux annotations humaines, ce qui témoigne de la nature méticuleuse de son développement.
LLaMA 2 vs GPT-4 : résultats avec la même invite
Il est important de noter que la comparaison de ces deux modèles dans leur intégralité peut ne pas être tout à fait juste étant donné que nous n’avons accès qu’à la version de démonstration de Llama 2. Cependant, l’utilisation de la même invite pour GPT-4 et Llama 2 nous en donnera quelques-uns. aperçus intéressants dans leurs capacités respectives et leurs tendances stylistiques.
L’invite : “Écrivez-moi un passage de 100 mots sur l’importance des chatbots.”
- GPT-4 :
Il semble que la réponse de GPT-4, bien que plus courte et succincte à 93 mots, fournit avec succès information précise.
- Démo Lama 2 :
En revanche, Llama 2 penche vers une réponse plus globale avec 122 mots. Même s’il est légèrement plus verbeux compte tenu de l’invite donnée, il offre des informations très détaillées.
Contexte de LLaMA 2
Le voyage de LLaMA a commencé en février, générer de l’enthousiasme au sein de la communauté de recherche en IA. Une fuite peu après l’annonce n’a fait qu’ajouter à l’intrigue. Maintenant, avec la sortie de LLaMA 2 en tant que modèle open-source, son public potentiel a élargi de façon exponentielle. Avec plus de 100 000 requêtes reçu pour le modèle LLaMA initial, l’impact de LLaMA 2 devrait être encore plus profond.
Pendant L’événement Inspire de MicrosoftMeta a non seulement présenté son support indéfectible pour les plates-formes Microsoft Azure et Windows, mais a également lancé une bombe en rendant LLaMA 2 librement accessible à des fins commerciales et de recherche. Cette décision a marqué une étape importante, car elle a ouvert un vaste éventail de possibilités aux entreprises, aux startups et aux chercheurs pour exploiter le potentiel de ce modèle de langage révolutionnaire.
Par rapport à son prédécesseur, LLaMA 2 a subi des améliorations substantielles. Formé sur 40 % de données en plus, y compris les sources en ligne accessibles au public, LLaMA 2 a affiché des performances supérieures dans des domaines tels que les tests de raisonnement, de codage, de compétence et de connaissances, surpassant d’autres grands modèles de langage comme Falcon et MPT.
Privilégier la sécurité et la transparence
Meta a démontré son dévouement à la sécurité et à la transparence en soumettant LLaMA 2 à des tests rigoureux “équipe rouge” et réglage fin par des invites contradictoires. Ces efforts ont permis de garantir que LLaMA 2 respecte les normes de sécurité les plus élevées et permet aux chercheurs et aux développeurs d’acquérir une compréhension claire de ses performances grâce à des processus d’évaluation transparents.
Accessibilité sur toutes les plateformes
Conformément à son engagement envers les principes de l’open source, Meta a assuré que LLaMA 2 serait accessible sur plusieurs plates-formes. Initialement disponible via Azure de Microsoft, LLaMA 2 trouvera bientôt son chemin sur d’autres plates-formes telles que AWS, visage étreignant, et autres. Cette approche inclusive encourage l’adoption généralisée et la collaboration entre les développeurs et les chercheurs, ce qui stimule l’avancement des applications d’IA.
La puissance d’une approche ouverte de l’IA
La stratégie open source de Meta s’aligne sur le paysage en évolution rapide de la technologie d’IA générative. En démocratisant l’accès à des modèles de pointe comme LLaMA 2, Meta favorise une communauté collaborative de développeurs et de chercheurs qui peuvent collectivement tester le modèle, identifier les problèmes potentiels et accélérer les solutions, propulsant finalement l’innovation de l’IA vers l’avant.
LLaMA 2 contre GPT-4 et PalM 2
Alors que LLaMA 2 peut être légèrement moins puissant que ses concurrents, GPT-4 et PaLM 2, sa nature open source et l’accent mis par Meta sur la sécurité et la transparence sont différenciateurs clés. LLaMA 2 a été formé sur deux millions de jetons, moins que les PALM 2 3,6 millions de jetons, et il prend en charge 20 langues, à la traîne Les 100 langues de PaLM 2 et les 26 langues de GPT-4. Cependant, la puissance de la collaboration open source et du développement communautaire peut compenser ces différences et conduire à des progrès rapides.
Un moment charnière pour le développement de l’IA
La décision de Meta d’ouvrir les marques LLaMA 2 un tournant dans le paysage de l’IA. En faisant de ce puissant modèle de langage accessible librement, Meta permet aux développeurs et aux chercheurs de repousser les limites de l’innovation en IA tout en garantissant que la sécurité et la transparence restent au premier plan. La collaboration avec Microsoft et Qualcomm cimente davantage l’avenir radieux des applications d’IA, promettant une intégration transparente sur diverses plates-formes et appareils.
Alors que les développeurs et les chercheurs se lancent dans ce voyage avec LLaMA 2 et que la compétition entre LLaMA 2 et GPT-4 se poursuit, nous pouvons nous attendre à une vague d’outils transformateurs alimentés par l’IA à émerger, remodeler nos interactions avec la technologie. L’engagement de Meta en faveur de l’ouverture crée un précédent pour le raffinement et l’exploitation collaboratifs des modèles d’IA, ouvrant la voie à une nouvelle génération d’innovations d’IA qui façonneront l’avenir de l’intelligence artificielle.
L’image sélectionnée: Crédit
Source: LLaMA 2 vs GPT-4 : à quel point Meta est-il compétitif dans la course à l’IA ?