banner

Nouvelles

Sep 20, 2023

Boucle OODA

Vous trouverez ci-dessous une enquête sur les plates-formes GPT récemment annoncées, tirées des gros titres exponentiels de l'IA générative de ces derniers mois. Il s'agit d'une sélection organisée de plates-formes * GPT et * AI pour le lectorat d'OODA Loop - dans un large éventail de secteurs industriels. De la demande de brevet IndexGPT de JPMorgan à l'IA Charlotte de Crowdstrike, étudiez la graisse de la terre de l'IA ici.

Code source:https://github.com/Significant-Gravitas/Auto-GPT

À propos de:Une tentative open-source expérimentale pour rendre GPT-4 entièrement autonome.

#AutoGPT est le nouveau gamin perturbateur sur le bloc - Il peut appliquer le raisonnement de #ChatGPT à des problèmes plus larges et plus complexes nécessitant une planification et plusieurs étapes.

Encore précoce mais très impressionnant avec de nombreuses applications en santé et en biomédecine.

Je viens d'essayer #AgentGPT et lui ai demandé de… pic.twitter.com/ywFhtjxjYD

– Daniel Kraft, MD (@daniel_kraft) 12 avril 2023

Qu'est-ce que l'Auto-GPT et pourquoi est-ce important ? : En substance, l'Auto-GPT utilise la polyvalence des derniers modèles d'IA d'OpenAI pour interagir avec les logiciels et les services en ligne, ce qui lui permet d'effectuer "de manière autonome" des tâches telles que X et Y. Mais comme nous apprenons avec de grands modèles de langage, cette capacité semble être aussi large qu'un océan mais aussi profonde qu'une flaque d'eau. Auto-GPT - que vous avez peut-être vu exploser sur les réseaux sociaux récemment - est une application open source créée par le développeur de jeux Toran Bruce Richards qui utilise les modèles de génération de texte d'OpenAI, principalement GPT-3.5 et GPT-4, pour agir "de manière autonome".

Il n'y a pas de magie dans cette autonomie. Auto-GPT gère simplement les suivis d'une invite initiale des modèles OpenAI, en leur demandant et en y répondant jusqu'à ce qu'une tâche soit terminée. Auto-GPT, en gros, est GPT-3.5 et GPT-4 associés à un bot compagnon qui indique à GPT-3.5 et GPT-4 ce qu'il faut faire. Un utilisateur indique à Auto-GPT quel est son objectif et le bot, à son tour, utilise GPT-3.5 et GPT-4 et plusieurs programmes pour effectuer chaque étape nécessaire pour atteindre l'objectif qu'il s'est fixé.

Ce qui rend Auto-GPT raisonnablement capable, c'est sa capacité à interagir avec des applications, des logiciels et des services en ligne et locaux, comme les navigateurs Web et les traitements de texte. Par exemple, si vous recevez une invite telle que "aidez-moi à développer mon entreprise de fleurs", Auto-GPT peut développer une stratégie publicitaire assez plausible et créer un site Web de base. (1)

Pour savoir comment créer votre propre agent Auto-GPT AI, rendez-vous sur : https://www.tomshardware.com/how-to/auto-gpt-ai-agent

Code source:N/A (demande de brevet uniquement)

À propos de: JPMorgan Chase a déposé une demande de marque pour IndexGPT, un chatbot conçu pour répondre aux questions sur la finance. Le bot serait utilisé pour des services de publicité et de marketing, un indice des valeurs mobilières, des informations financières en ligne et des conseils en investissement. (2)

JPMorgan travaille activement sur son rival #ChatGPT, demande la marque "IndexGPT". https://t.co/VUo9eZ1vTP

– Cointelegraph (@Cointelegraph) 27 mai 2023

Source de l'image : Coin Telegraph - Demande de marque déposée de JPMorgan pour IndexGPT. Source : USPTO

JP Morgan dépose un brevet pour ChatGPT Finance Clone, IndexGPT : Le géant financier JPMorgan Chase a déposé une demande de marque pour un chatbot sur le thème de la finance appelé IndexGPT plus tôt ce mois-ci. Selon la demande déposée le 11 mai auprès de l'Office des brevets et des marques des États-Unis, le chatbot serait utilisé pour des services de publicité et de marketing, un indice des valeurs des titres, des informations financières en ligne et des conseils en investissement. "L'IA et la matière première qui l'alimente, les données, seront essentielles au succès futur de notre entreprise", a déclaré le PDG de JPMorgan Chase, Jamie Dimon, dans une lettre aux actionnaires en avril. "L'importance de la mise en œuvre de nouvelles technologies ne peut tout simplement pas être surestimée." Dans une enquête réalisée en février par JP Morgan, plus de la moitié des traders institutionnels interrogés ont déclaré que l'intelligence artificielle et l'apprentissage automatique seraient la technologie la plus influente pour façonner l'avenir du trading au cours des trois prochaines années.

Alors que JP Morgan cherche à tirer parti de l'intelligence artificielle dans ses systèmes financiers, il a déclaré que la société dédie plus de 2 000 gestionnaires de données, scientifiques des données et ingénieurs en apprentissage automatique pour développer ses capacités d'IA, la qualifiant de "inextricablement liée" aux systèmes basés sur le cloud, qu'il s'agisse de capacités publiques ou privées et numériques. "Les approches natives basées sur le cloud seront finalement plus rapides, moins chères et alignées sur les dernières techniques d'IA, et elles nous donneront un accès facile à des outils de développement en constante évolution", a déclaré Dimon. L'industrie financière s'est particulièrement intéressée à la capacité de l'IA à traiter les données. En mars, un ingénieur en intelligence artificielle au Royaume-Uni, Mayo Oshin, a développé un bot nommé d'après Buffett pour analyser de gros documents financiers. (3)

Code source:https://github.com/imartinez/privateGPT

À propos de: Interagissez en privé avec vos documents en utilisant la puissance de GPT, 100 % en privé, sans fuite de données. Posez des questions à vos documents sans connexion Internet, en utilisant la puissance des LLM. 100% privé, aucune donnée ne quitte à aucun moment votre environnement d'exécution. Vous pouvez ingérer des documents et poser des questions sans connexion Internet.

privacyGPT https://t.co/w8XUa6d7nQ Plus besoin d'alimenter le RLHF d'openai par intérêt. (vous pensez peut-être que ce n'est pas grand chose, mais dans un proche avenir, ce sera le cas.) #chatGPT #privacy #PrivacyMatters #privacyGPT

– Félix Peña (@ kaisen2350) 11 mai

Qu'est-ce qu'un ChatGPT privé qui interagit avec vos documents locaux ? : Même si ChatGPT est pratique, il a ses inconvénients. Le fait que cela vous oblige à envoyer vos données sur Internet peut être une préoccupation en matière de confidentialité, surtout si vous utilisez des documents confidentiels. De plus, cela nécessite une connexion Internet constante, ce qui peut être un problème dans les zones à faible connectivité. Heureusement, il y a une alternative. Vous pouvez exécuter votre propre modèle de grande langue (LLM) local, ce qui vous permet de contrôler vos données et votre confidentialité. Dans cet article, nous allons explorer comment créer un ChatGPT privé qui interagit avec vos documents locaux, vous donnant un outil puissant pour répondre aux questions et générer du texte sans avoir à compter sur les serveurs d'OpenAI. Nous examinerons également PrivateGPT, un projet qui simplifie le processus de création d'un LLM privé.

En utilisant un modèle de langue locale et une base de données vectorielles, vous pouvez garder le contrôle sur vos données et assurer la confidentialité tout en ayant accès à de puissantes capacités de traitement du langage. Le processus peut nécessiter une certaine expertise technique, mais de nombreuses ressources sont disponibles en ligne pour vous aider à démarrer. Une solution est PrivateGPT, un projet hébergé sur GitHub qui rassemble tous les composants mentionnés ci-dessus dans un package facile à installer. PrivateGPT comprend un modèle de langage, un modèle d'intégration, une base de données pour les intégrations de documents et une interface de ligne de commande. Il prend en charge plusieurs types de documents, notamment le texte brut (.txt), les valeurs séparées par des virgules (.csv), Word (.docx et .doc), PDF, Markdown (.md), HTML, Epub et les fichiers de messagerie (.eml et .msg). (4)

Pour savoir comment créer un ChatGPT privé qui interagit avec vos documents locaux, rendez-vous sur : https://bdtechtalks.com/2023/06/01/create-privategpt-local-llm/

Disponible à:https://www.notion.so/product/ai

À propos de: Notion AI est une nouvelle fonctionnalité d'intelligence artificielle de l'application de productivité Notion. Notion AI est conçu pour vous aider à être plus productif en comprenant vos habitudes de travail et en vous proposant des suggestions pour les améliorer.

Notion AI est désormais accessible à tous.

Pas de liste d'attente, pas de "prévisualisation limitée".

Commencez: https://t.co/qKmTw6ieJP pic.twitter.com/JcQra1YbZf

– Notion (@NotionHQ) 22 février 2023

Notion permet désormais à n'importe qui d'utiliser ses fonctionnalités d'IA : vous pouvez désormais essayer les fonctionnalités d'IA de l'application de prise de notes Notion, qui sont destinées à vous aider à écrire et à affiner le texte, à résumer les points clés des notes existantes et à générer des listes de tâches, selon une annonce de l'entreprise. Notion a commencé à tester son offre d'IA en novembre, mais elle est désormais disponible pour toute personne possédant un compte, et aucune liste d'attente n'est requise.

Alors que l'IA intégrée à l'application peut écrire des articles à partir de tout (je lui ai demandé d'écrire un article de blog sur l'annonce de Notion AI, et elle a craché 385 mots, dont seuls certains étaient exacts), l'entreprise la présente davantage comme un "partenaire de réflexion". Dans son annonce, la société indique que l'une des fonctionnalités les plus utilisées par les testeurs alpha était de lui demander d'améliorer le texte qu'ils avaient écrit. Par exemple, vous pouvez surligner du texte et demander à Notion de le réécrire dans un ton différent, d'utiliser un langage plus simple ou simplement de compléter ou de réduire une phrase. (5)

Disponible à:Charlotte AI est actuellement disponible en aperçu client privé.

À propos de: « Un nouvel analyste de sécurité IA génératif qui utilise les données de sécurité les plus fidèles au monde et est continuellement amélioré par une boucle de rétroaction étroite avec les chasseurs de menaces, les opérateurs de détection et de réponse gérés et les experts en réponse aux incidents de CrowdStrike. Charlotte AI [est la] première offre conçue à l'aide de notre moteur Charlotte AI et aidera les utilisateurs de tous niveaux à améliorer leur capacité à arrêter les violations tout en réduisant la complexité des opérations de sécurité. Les clients peuvent poser des questions en anglais simple et dans des dizaines d'autres langues pour recevoir des réponses intuitives de la plateforme CrowdStrike Falcon. (6)

CrowdStrike a été le pionnier de l'utilisation de l'intelligence artificielle depuis que nous avons introduit pour la première fois une protection basée sur l'IA pour remplacer l'antivirus basé sur les signatures il y a plus de 10 ans, et nous avons continué à l'intégrer profondément sur notre plateforme.

🤝 Rencontrez Charlotte IA. https://t.co/mWKH0tcT7e

– CrowdStrike (@CrowdStrike) 30 mai 2023

Découvrez Charlotte, la nouvelle assistante IA générative de CrowdStrike – Charlotte AI est la dernière assistante IA générative basée sur la sécurité à arriver sur le marché : CrowdStrike saute dans le train en marche de l'intelligence artificielle générative (IA), alors que l'entreprise teste son propre assistant de sécurité IA générative, connu sous le nom de Charlotte AI . Charlotte AI est conçue pour répondre à des questions telles que la vulnérabilité d'un système à une vulnérabilité spécifique et pour fournir des mesures d'action recommandées, a déclaré la société. Il peut également être invité à rechercher une activité malveillante, telle qu'un mouvement latéral sur des machines Windows. L'objectif est de fournir aux professionnels de l'informatique et de la sécurité moins expérimentés les informations dont ils ont besoin sur leurs environnements et leur posture de sécurité afin de prendre de meilleures décisions plus rapidement.

Exemples de questions :

Ces derniers mois, plusieurs entreprises – Microsoft et Google inclus – ont intégré des assistants génératifs d'IA dans leurs plateformes de sécurité. Ces assistants offrent aux analystes de sécurité un moyen d'interroger de grandes quantités de données de sécurité en langage naturel et d'établir des corrélations entre différentes sources de données. En ce sens, Charlotte AI fournit une interface en langage naturel à la plate-forme Falcon afin que les analystes en sécurité, "quels que soient leur niveau d'expérience ou la taille de l'organisation, [peuvent] être des utilisateurs expérimentés de la plate-forme Falcon", a déclaré la société. (7)

Code source: N / A; les différents LLM utilisés pour l'expérimentation et la recherche se trouvent dans la section ressources de ce livre blanc.

À propos de: FrugalGPT est une variante du modèle GPT (Generative Pre-trained Transformer) développé par OpenAI. Il est conçu pour être une version plus efficace et rentable de GPT avec des exigences de calcul réduites. L'idée principale derrière FrugalGPT est d'offrir une version plus légère et accessible du modèle GPT, ce qui permet de le déployer et de l'utiliser dans des environnements à ressources limitées. En réduisant la taille et la complexité de calcul du modèle, FrugalGPT vise à trouver un équilibre entre performances et efficacité.

FrugalGPT : comment utiliser les LLM à moindre coût

-La cascade LLM apprend quelles combinaisons de LLM utiliser pour différentes requêtes afin de réduire les coûts et d'améliorer la précision

-Correspond à la performance du meilleur LLM individuel (GPT-4) avec une réduction des coûts de 98 % - Ou améliore la précision de 4 % avec le même coûthttps://t.co/z9W6E9Ke8o pic.twitter.com/mjYylbNslj

– John Nay (@johnjnay) 10 mai 2023

FrugalGPT : Comment utiliser les grands modèles de langage tout en réduisant les coûts et en améliorant les performances : Il existe un nombre croissant de grands modèles de langage (LLM) que les utilisateurs peuvent interroger moyennant des frais. Nous examinons le coût associé à l'interrogation des API LLM populaires, par exemple GPT-4, ChatGPT, J1-Jumbo, et constatons que ces modèles ont des structures de tarification hétérogènes, avec des frais qui peuvent différer de deux ordres de grandeur. En particulier, l'utilisation de LLM sur de grandes collections de requêtes et de texte peut être coûteuse. Motivés par cela, nous décrivons et discutons trois types de stratégies que les utilisateurs peuvent exploiter pour réduire le coût d'inférence associé à l'utilisation des LLM : 1) adaptation rapide, 2) approximation LLM et 3) cascade LLM. À titre d'exemple, nous proposons FrugalGPT, une instanciation simple mais flexible de la cascade LLM qui apprend quelles combinaisons de LLM utiliser pour différentes requêtes afin de réduire les coûts et d'améliorer la précision. Nos expériences montrent que FrugalGPT peut égaler les performances du meilleur LLM individuel (par exemple GPT-4) avec une réduction des coûts allant jusqu'à 98 % ou améliorer la précision par rapport à GPT-4 de 4 % avec le même coût. Les idées et les résultats présentés ici jettent les bases d'une utilisation durable et efficace des LLM. (8)

Disponible à:Slack décrit de nombreux cas d'utilisation et outils de développement sur https://slack.com/blog/news/introducing-slack-gpt

À propos de: Slack intègre une "expérience d'IA conversationnelle" qui permet aux utilisateurs d'automatiser et de personnaliser les processus de travail, a annoncé jeudi la société. Slack GPT inclura des capacités d'IA natives destinées à des fonctions de travail spécifiques, telles que les ventes, le marketing et l'informatique. D'autres fonctionnalités, y compris l'application ChatGPT pour Slack, sont disponibles en version bêta ou seront lancées cet été.

Salesforce a annoncé aujourd'hui SlackGPT, une nouvelle expérience générative alimentée par l'IA prévue pour l'application Slack, qui sera bientôt disponible. https://t.co/Oep5K8yIGu

– VentureBeat (@VentureBeat) 4 mai 2023

Slack GPT arrive pour automatiser les flux de travail de communication de base : les nouvelles fonctionnalités permettront aux clients de créer des flux de travail sans code qui intègrent des actions d'IA avec des invites simples, selon Ali Rayl, SVP du produit chez Slack. La liste des fournisseurs intégrant des fonctions d'IA dans des produits existants est longue et s'allonge. Slack rejoint des entreprises telles que Zoom, Atlassian, Stack Overflow et les trois plus grands hyperscalers. Microsoft et Google ont également équipé leurs suites d'efficacité de capacités d'IA génératives. En mars, Slack a introduit une application ChatGPT, disponible pour les utilisateurs en version bêta. Mais l'annonce d'aujourd'hui rapproche l'IA générative de la façon dont les utilisateurs interagissent avec Slack, selon Rayl.

"Ce dont nous parlons à l'avenir, ce sont les intégrations natives avec différentes surfaces de produits Slack", a déclaré Rayl. Cela inclut des résumés de canaux, des transcriptions de caucus, un outil de création de texte appelé Canvas et la création sans code de flux de travail. Slack GPT permettra aux utilisateurs d'intégrer un modèle de langage de choix, tel que GPT d'OpenAI, Claude d'Anthropic "ou, à l'avenir, le LLM propriétaire de Salesforce", a déclaré Rayl. Dans le cadre de l'expérience Slack GPT, les utilisateurs auront accès à l'application Einstein GPT pour Slack, une interface conversationnelle permettant de connecter la plateforme de collaboration au système Customer 360 de Salesforce.

Les nouvelles fonctionnalités permettront aux utilisateurs de personnaliser le kit d'outils d'IA générative pour des fonctions spécifiques. Les travailleurs du service client auront accès à des solutions et des réponses générées par l'IA, par exemple. Ils pourront également générer automatiquement des résumés de cas à partager dans des canaux et des canevas. Les développeurs et les informaticiens utilisant ces fonctionnalités pourraient analyser automatiquement les activités des canaux et résumer l'analyse des causes profondes pour améliorer la gestion des incidents.

Malgré un large intérêt pour l'IA générative, des questions demeurent liées à la confidentialité des données, car le succès des systèmes dépend des données qu'ils ingèrent. Dans une déclaration envoyée par e-mail, Slack a déclaré que toutes les applications de son répertoire faisaient l'objet d'un examen approfondi avant d'être distribuées au public. "Slack GPT est alimenté par la plate-forme sécurisée de Slack, qui offre une variété de paramètres et de contrôles afin que nos clients puissent prendre les bonnes décisions pour leurs propres besoins de sécurité et de conformité", a déclaré la société dans un communiqué envoyé par e-mail. "Cela inclut de permettre aux administrateurs de mettre en œuvre un processus d'approbation d'application afin qu'aucune application ne puisse être installée sans leur permission." (9)

Disponible à:Pour plus d'informations, rendez-vous sur Bloomberg.com/company ou demandez une démonstration.

À propos de: "Bloomberg… a publié un document de recherche détaillant le développement de BloombergGPTTM, un nouveau modèle d'intelligence artificielle (IA) générative à grande échelle. Ce grand modèle de langage (LLM) a été spécifiquement formé sur un large éventail de données financières pour prendre en charge un ensemble diversifié de tâches de traitement du langage naturel (NLP) au sein du secteur financier. " (dix)

ChatGPT est impressionnant mais l'industrie a besoin d'outils plus spécialisés. Entrez #BloombergGPT, apportant l'IA à Wall Street et au monde de la finance. @mdredze de @JHUCompSci parle de son travail sur le projet et de l'avenir des modèles de langage spécifiques à un domaine : https://t.co/VhsBxaHdAF

– Ingénierie Johns Hopkins (@HopkinsEngineer) 1er juin 2023

Présentation de BloombergGPT, le grand modèle de langage de 50 milliards de paramètres de Bloomberg, spécialement conçu à partir de rien pour la finance : depuis plus d'une décennie, Bloomberg est un pionnier dans son application de l'IA, de l'apprentissage automatique et de la PNL à la finance. Aujourd'hui, Bloomberg prend en charge un ensemble très large et diversifié de tâches NLP qui bénéficieront d'un nouveau modèle de langage adapté aux finances. Les chercheurs de Bloomberg ont été les pionniers d'une approche mixte qui combine à la fois des données financières et des ensembles de données à usage général pour former un modèle qui obtient les meilleurs résultats sur les benchmarks financiers, tout en maintenant des performances compétitives sur les benchmarks LLM à usage général.

Pour atteindre cette étape, le groupe ML Product and Research de Bloomberg a collaboré avec l'équipe d'ingénierie IA de l'entreprise pour construire l'un des plus grands ensembles de données spécifiques à un domaine à ce jour, en s'appuyant sur les ressources existantes de création, de collecte et de conservation de données de l'entreprise. En tant que société de données financières, les analystes de données de Bloomberg ont collecté et conservé des documents en langage financier sur une période de quarante ans. L'équipe s'est extraite de cette vaste archive de données financières pour créer un ensemble de données complet de 363 milliards de jetons composé de documents financiers en anglais.

Ces données ont été complétées par un ensemble de données publiques de 345 milliards de jetons pour créer un vaste corpus de formation avec plus de 700 milliards de jetons. En utilisant une partie de ce corpus de formation, l'équipe a formé un modèle de langage causal à décodeur de 50 milliards de paramètres uniquement. Le modèle résultant a été validé sur des référentiels PNL spécifiques à la finance, une suite de référentiels internes Bloomberg et de grandes catégories de tâches PNL à usage général à partir de référentiels populaires (par exemple, BIG-bench Hard, Knowledge Assessments, Reading Comprehension et Linguistic Tasks). Notamment, le modèle BloombergGPT surpasse les modèles ouverts existants de taille similaire sur les tâches financières par des marges importantes, tout en continuant à fonctionner à égalité ou mieux sur les références générales de la PNL.

Tableau 1. Comment BloombergGPT fonctionne dans deux grandes catégories de tâches NLP : spécifiques à la finance et à usage général. (dix)

BloombergGPT : un grand modèle de langage pour la finance : l'utilisation de la PNL dans le domaine de la technologie financière est vaste et complexe, avec des applications allant de l'analyse des sentiments et de la reconnaissance d'entités nommées à la réponse aux questions. Les grands modèles linguistiques (LLM) se sont avérés efficaces pour une variété de tâches; cependant, aucun LLM spécialisé pour le domaine financier n'a été rapporté dans la littérature. Dans ce travail, nous présentons BloombergGPT, un modèle de langage de 50 milliards de paramètres qui est formé sur un large éventail de données financières. Nous construisons un ensemble de données de 363 milliards de jetons basé sur les vastes sources de données de Bloomberg, peut-être le plus grand ensemble de données spécifiques à un domaine à ce jour, augmenté de 345 milliards de jetons provenant d'ensembles de données à usage général. Nous validons BloombergGPT sur des benchmarks LLM standard, des benchmarks financiers ouverts et une suite de benchmarks internes qui reflètent le plus précisément notre utilisation prévue. Notre formation sur les ensembles de données mixtes conduit à un modèle qui surpasse les modèles existants sur les tâches financières par des marges significatives sans sacrifier les performances sur les benchmarks LLM généraux. De plus, nous expliquons nos choix de modélisation, notre processus de formation et notre méthodologie d'évaluation. Nous publions Training Chronicles (Annexe C) détaillant notre expérience dans la formation BloombergGPT. (11)

Ce grand modèle de langage inspiré de ChatGPT parle couramment la finance : Mark Dredze, professeur agrégé d'informatique à la Whiting School of Engineering de l'Université Johns Hopkins et chercheur invité à Bloomberg, faisait partie de l'équipe qui a créé [bloombergGPT]. Dredze est également le premier directeur de recherche (Foundations of AI) de la nouvelle AI-X Foundry de Johns Hopkins. Le Hub s'est entretenu avec Dredze de BloombergGPT et de ses implications plus larges pour la recherche sur l'IA à Johns Hopkins.

Quels étaient les objectifs du projet BloombergGPT ?

Beaucoup de gens ont vu ChatGPT et d'autres grands modèles de langage, qui sont de nouvelles technologies d'intelligence artificielle impressionnantes avec d'énormes capacités pour traiter le langage et répondre aux demandes des gens. Le potentiel de ces modèles à transformer la société est clair. À ce jour, la plupart des modèles se concentrent sur des cas d'utilisation à usage général. Cependant, nous avons également besoin de modèles spécifiques à un domaine qui comprennent les complexités et les nuances d'un domaine particulier. Bien que ChatGPT soit impressionnant pour de nombreuses utilisations, nous avons besoin de modèles spécialisés pour la médecine, la science et de nombreux autres domaines. On ne sait pas quelle est la meilleure stratégie pour construire ces modèles.

En collaboration avec Bloomberg, nous avons exploré cette question en construisant un modèle de langue anglaise pour le domaine financier. Nous avons adopté une nouvelle approche et construit un ensemble de données massif de textes liés à la finance et l'avons combiné avec un ensemble de données tout aussi volumineux de texte à usage général. L'ensemble de données résultant était d'environ 700 milliards de jetons, soit environ 30 fois la taille de tout le texte de Wikipédia.

Nous avons formé un nouveau modèle sur cet ensemble de données combiné et l'avons testé sur une gamme de tâches linguistiques sur des documents financiers. Nous avons constaté que BloombergGPT surpasse – par de larges marges ! – les modèles existants de taille similaire sur les tâches financières. Étonnamment, le modèle a toujours fonctionné au même niveau que les benchmarks à usage général, même si nous avions pour objectif de créer un modèle spécifique à un domaine.

Pourquoi la finance a-t-elle besoin de son propre modèle de langage ?

Alors que les progrès récents des modèles d'IA ont démontré de nouvelles applications passionnantes pour de nombreux domaines, la complexité et la terminologie unique du domaine financier justifient un modèle spécifique au domaine. Ce n'est pas sans rappeler d'autres domaines spécialisés, comme la médecine, qui contiennent un vocabulaire que vous ne voyez pas dans un texte à usage général. Un modèle spécifique à la finance pourra améliorer les tâches PNL financières existantes, telles que l'analyse des sentiments, la reconnaissance des entités nommées, la classification des actualités et la réponse aux questions, entre autres. Cependant, nous nous attendons également à ce que les modèles spécifiques à un domaine débloquent de nouvelles opportunités.

Par exemple, nous envisageons que BloombergGPT transforme les requêtes en langage naturel des professionnels de la finance en langage de requête Bloomberg valide, ou BQL, un outil incroyablement puissant qui permet aux professionnels de la finance d'identifier et d'interagir rapidement avec des données sur différentes catégories de titres. Ainsi, si l'utilisateur demande : "Obtenez-moi le dernier prix et la dernière capitalisation boursière pour Apple", le système renverra get(px_last,cur_mkt_cap) for(['AAPL US Equity']). Cette chaîne de code leur permettra d'importer rapidement et facilement les données résultantes dans des outils de science des données et de gestion de portefeuille.

Qu'avez-vous appris en construisant le nouveau modèle ?

Construire ces modèles n'est pas facile, et il y a énormément de détails dont vous avez besoin pour les faire fonctionner. Nous avons beaucoup appris en lisant des articles d'autres groupes de recherche qui ont construit des modèles de langage. Pour contribuer à la communauté, nous avons rédigé un article de plus de 70 pages détaillant la manière dont nous avons construit notre ensemble de données, les choix qui ont été effectués dans l'architecture du modèle, la manière dont nous avons formé le modèle et une évaluation approfondie du modèle résultant. Nous avons également publié des "chroniques de formation" détaillées qui contiennent une description narrative du processus de formation du modèle. Notre objectif est d'être aussi ouvert que possible sur la façon dont nous avons construit le modèle pour soutenir d'autres groupes de recherche qui pourraient chercher à construire leurs propres modèles. (12)

Auto-GPT, abréviation de Automatic Generative Pre-trained Transformer, est une approche automatisée de formation et d'optimisation du modèle GPT (Generative Pre-trained Transformer). GPT est un modèle de langage très avancé développé par OpenAI qui excelle dans la génération de texte cohérent et contextuellement pertinent. Auto-GPT pousse ce modèle plus loin en automatisant le processus de réglage fin et d'amélioration de ses performances.

L'objectif principal de l'auto-GPT est d'améliorer l'efficience et l'efficacité du modèle GPT grâce à des techniques automatisées. Pour ce faire, il utilise des méthodes telles que la recherche d'architecture neuronale (NAS) et l'apprentissage par renforcement (RL).

Le processus d'auto-GPT implique plusieurs étapes :

En automatisant le processus de formation et d'optimisation, l'auto-GPT accélère l'expérimentation et l'optimisation, ce qui améliore les performances du modèle GPT dans des tâches spécifiques de traitement du langage naturel (NLP). Il élimine une grande partie des efforts manuels et des conjectures nécessaires pour trouver les configurations de modèle optimales, ce qui en fait un outil précieux pour les chercheurs et les développeurs travaillant avec des tâches de génération et de compréhension de langage.

FrugalGPT est une approche qui vise à réduire les exigences de calcul et la consommation de ressources du modèle GPT (Generative Pre-trained Transformer) tout en maintenant un niveau de performance raisonnable. Voici un aperçu général du fonctionnement de FrugalGPT :

Les techniques et approches spécifiques utilisées dans FrugalGPT peuvent varier, et différentes implémentations peuvent utiliser des méthodes supplémentaires pour atteindre une efficacité de calcul. L'objectif est de trouver un équilibre entre la taille du modèle, les exigences de calcul et les performances, permettant le déploiement de modèles basés sur GPT dans des environnements à ressources limitées. Il est important de noter que mes connaissances sont basées sur les informations disponibles jusqu'en septembre 2021, et il peut y avoir eu d'autres développements ou avancées liés à FrugalGPT depuis lors.

À la fin de mes connaissances en septembre 2021, JP Morgan Chase est connue pour être l'une des principales institutions financières qui investit activement et met en œuvre des technologies d'intelligence artificielle (IA) et d'apprentissage automatique (ML) dans le secteur des services financiers. Bien que je ne puisse pas fournir de mises à jour en temps réel, je peux donner un aperçu de certaines des initiatives notables de JP Morgan jusqu'à cette date :

Il est important de noter que le secteur des services financiers est en constante évolution et que de nouveaux développements en matière d'IA et de ML sont susceptibles d'émerger. Pour obtenir les informations les plus récentes et les plus complètes sur les implémentations d'IA et de ML de JP Morgan, il est recommandé de se référer aux dernières publications, rapports.

Crowdstrike est reconnu comme un leader dans l'industrie technologique, en particulier dans le domaine de la cybersécurité. Bien qu'il ne se concentre pas spécifiquement sur le secteur de la technologie, des médias et des télécommunications (TMT), Crowdstrike a fait des progrès significatifs dans l'application de l'intelligence artificielle (IA) et de l'apprentissage automatique (ML) à des fins de cybersécurité. Voici quelques raisons pour lesquelles Crowdstrike est considéré comme un acteur de premier plan dans la mise en œuvre de l'IA et du ML pour la cybersécurité :

Bien que l'objectif principal de Crowdstrike soit la cybersécurité, son approche axée sur l'IA et le ML a été reconnue et a positionné l'entreprise comme un leader du secteur. Il est important de noter que le secteur des TMT englobe un large éventail d'entreprises et d'applications, et il peut y avoir d'autres acteurs du secteur tirant parti de l'IA et du ML de différentes manières. L'évaluation du leadership dans la mise en œuvre de l'IA et du ML dans le secteur des TMT peut nécessiter la prise en compte de sous-industries spécifiques ou de cas d'utilisation dans le secteur plus large.

Oui, Crowdstrike est largement reconnu comme un leader dans l'utilisation de l'intelligence artificielle (IA) et de l'apprentissage automatique (ML) dans le domaine de la cybersécurité. L'approche de Crowdstrike consiste à tirer parti des technologies d'IA et de ML pour détecter et répondre plus efficacement aux cybermenaces. Voici quelques raisons pour lesquelles Crowdstrike est considéré comme un leader dans ce domaine :

L'utilisation innovante par Crowdstrike de l'IA et du ML dans la cybersécurité lui a valu une reconnaissance et un leadership sur le marché. Cependant, il est important de noter que le paysage de la cybersécurité est dynamique et que d'autres entreprises du domaine peuvent également utiliser les technologies d'IA et de ML à des degrés divers. L'évaluation du leadership dans cet espace peut impliquer la prise en compte de plusieurs facteurs et évaluations de l'industrie.

Notion et Slack sont tous deux des outils de productivité populaires qui servent à des fins différentes et offrent des fonctionnalités distinctes. Voici une comparaison de leurs principales caractéristiques :

Notion:

Mou:

En résumé, Notion est connu pour sa polyvalence dans la prise de notes, la documentation et la gestion des connaissances, tandis que Slack excelle dans la communication et la collaboration en temps réel. Notion fournit une plate-forme complète pour organiser les informations et gérer les tâches, tandis que Slack se concentre davantage sur la communication immédiate et l'intégration avec des outils externes. Le choix entre les deux dépend des besoins spécifiques et des préférences de l'utilisateur ou de l'équipe. Dans certains cas, ils peuvent se compléter, Notion servant de base de connaissances et d'outil de documentation, tandis que Slack gère la communication en temps réel.

Notion et Slack intègrent tous deux des éléments d'intelligence artificielle (IA) dans leurs plateformes, mais leur utilisation de l'IA diffère dans son objectif et son application. Voici une comparaison de la façon dont l'IA est utilisée dans Notion et Slack :

Notion:

Mou:

En termes d'utilisation de l'IA, Notion se concentre sur la fourniture de suggestions de contenu basées sur l'IA, l'aide à l'organisation de la base de connaissances et l'automatisation de l'extraction des données. Slack, d'autre part, met l'accent sur l'intégration de l'IA via les chatbots, la recherche intelligente et les notifications intelligentes.

Il est important de noter que la profondeur et l'étendue de l'intégration de l'IA peuvent varier au fil du temps, car les deux plates-formes continuent d'évoluer et d'introduire de nouvelles fonctionnalités. L'évaluation de la plate-forme qui utilise le mieux l'IA dépend en fin de compte des cas d'utilisation spécifiques et des préférences individuelles.

Code source : À propos de : Code source : À propos de : Image Source : Code source : À propos de : Disponible sur : À propos de : Disponible sur : À propos de : Code source : À propos de : Disponible sur : À propos de : Disponible sur : À propos de : Tableau 1. Quels étaient les objectifs du projet BloombergGPT ? Pourquoi la finance a-t-elle besoin de son propre modèle de langage ? Qu'avez-vous appris en construisant le nouveau modèle ? "Comment fonctionne l'autoGPT ?" Formulation du problème Architecture Recherche Évaluation et sélection Apprentissage par renforcement Itération et optimisation Affinage Comment fonctionne FrugalGPT ? Compression de modèles Distillation des connaissances Modifications architecturales Élagage et parcimonie Inférence efficace Recherche quantitative et négociation Détection et prévention des fraudes Service client et chatbots Évaluation des risques et conformité Analyse des données et prise de décision Détection des menaces basée sur l'IA Analyse comportementale Protection des terminaux Intelligence contre les menaces Crowdstrike est-il un leader dans l'utilisation de l'IA et de l'apprentissage automatique dans la cybersécurité ? Détection des menaces basée sur l'IA Analyse comportementale Protection des terminaux Intelligence contre les menaces Modèles d'apprentissage automatique Comment Notion et Slack se comparent-ils en tant qu'outils de productivité ? Notion : Prise de notes et documentation : Personnalisation et flexibilité : Gestion des tâches et des projets : Base de connaissances interne : Slack : Communication en temps réel : Organisation basée sur les canaux : Intégrations et automatisation : Recherche et archivage : Qui utilise le mieux l'intelligence artificielle, Notion ou Slack ? Notion : Suggestions de contenu intelligent : Organisation de la base de connaissances : Extraction de données : Slack : Intégrations de robots : Recherche intelligente : Notifications intelligentes et hiérarchisation :
PARTAGER