OpenAI
Fondation |
---|
Type | |
---|---|
Forme juridique | |
Domaines d'activité | |
Siège | |
Pays |
Effectif |
375 employés () |
---|---|
Fondateurs |
Ilya Sutskever, Greg Brockman (en), Wojciech Zaremba (en), Andrej Karpathy, John Schulman (), Elon Musk, Sam Altman |
Directeur |
Sam Altman (depuis ) |
Personnes clés |
Sam Altman Bret Taylor (en) Lawrence Summers |
Filiale |
OpenAI OpCo () |
Dépenses |
1,4 M$ () |
Site web |
(en) openai.com |
IRS | |
---|---|
OpenCorporates |
OpenAI (« AI » pour artificial intelligence, ou intelligence artificielle) est une entreprise américaine d'intelligence artificielle (IA) fondée en 2015 à San Francisco en Californie. Sa mission est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique à toute l'humanité »[1].
L'entreprise est notamment connue pour ses grands modèles de langage tels que GPT-4o[2], la série de modèles de génération d'images DALL-E[3], et le modèle de génération de vidéos Sora[4]. Son lancement de ChatGPT en novembre 2022 a déclenché un intérêt mondial pour les agents conversationnels et l'IA générative, attirant 100 millions d'utilisateurs en à peine 2 mois[5].
OpenAI est composée d'une association à but non lucratif, « OpenAI, Inc. », et d'une filiale à but lucratif plafonné, « OpenAI Global, LLC »[6]. Microsoft détient environ 49% du capital d'OpenAI, ayant investi 13 milliards de dollars[7]. Microsoft fournit également des capacités de calcul à OpenAI via sa plateforme cloud Microsoft Azure[8].
En novembre 2023, le PDG Sam Altman a été licencié par le conseil d'administration qui a remis en doute sa sincérité, avant d'être réintégré cinq jours plus tard à la suite de négociations, entraînant une modification du conseil d'administration[9]. L'entreprise a fait l'objet de controverses concernant notamment le respect des droits d'auteur et du RGPD[10], sa bifurcation vers une structure à but lucratif[11], la révélation d'accords de non-dénigrement qui interdisaient aux anciens employés de critiquer l'entreprise[12], et le départ de chercheurs en sûreté de l'IA[13].
Historique
OpenAI est fondée en tant qu'association à but non lucratif, le , avec pour siège social initial historique le Pioneer Building de San Francisco, au nord de la Silicon Valley en Californie[14],[15],[16],[17], suivie en 2020, dans les mêmes lieux, de la seconde startup Neuralink de recherche en neurotechnologie d'Elon Musk.
-
Crédit image:licence CC BY-SA 4.0 🛈Pioneer Building, siège social historique initial des startups OpenAI et Neuralink, de San Francisco.
-
-
Crédit image:licence CC BY 2.0 🛈
Les deux présidents en sont Elon Musk et Sam Altman, les membres, Jessica Livingston, YC Research (branche de Y Combinator destinée à l'innovation), Peter Thiel (capital-investisseur), Amazon Web Services, Reid Hoffman et Infosys, une société indienne. Musk, Thiel et Hoffman se sont connus à l'époque de PayPal.
Le cofondateur Greg Brockman a pu attirer certains des meilleurs chercheurs de l'époque en apprentissage automatique, notamment avec des salaires attractifs et une vision commune[18].
Les fondateurs se sont engagés en 2015 sur un budget global d'un milliard de dollars, cependant seule une faible part serait utilisée dans les premières années[19].
Elon Musk quitte la société en 2018 à la suite d'un conflit de direction[20],[21].
En , l'association devient une entreprise à but lucratif plafonné pour attirer des capitaux[22],[23]. L'objectif de ce nouveau statut est de permettre aux investisseurs de recevoir une partie des bénéfices de la société jusqu’à un maximum de 100 fois la mise de départ[24].
En 2019, Microsoft a par ailleurs annoncé son intention d'investir un milliard de dollars dans OpenAI, en échange d'un partenariat privilégié avec OpenAI, lorsque la société commercialisera ses technologies d'intelligence artificielle[25].
En 2020, OpenAI lance GPT-3, un modèle de langage entraîné sur de larges quantités de texte issus d'internet[26]. Puis en 2021, OpenAI annonce DALL-E, la première version d'un modèle capable de générer des images à partir de descriptions textuelles.
En 2021, OpenAI a lancé le OpenAI Startup Fund. Grâce à un fonds initial de 100 millions de dollars, celui-ci cherche à investir dans quelques startups d'intelligence artificielle pouvant avoir un effet transformateur sur la société, dans des domaines tels que les soins de santé, le changement climatique ou l'éducation, et « où les outils d'IA peuvent autonomiser les gens en les aidant à être plus productifs[27],[28]. »
En 2022, OpenAI acquiert une renommée mondiale après la sortie de ChatGPT, un modèle de langage accessible gratuitement[29]. Basé sur GPT 3.5, ChatGPT a été spécifiquement entraîné pour le dialogue[26].
En janvier 2023, Microsoft annonce un investissement de 10 milliards de dollars réparti sur plusieurs années[30], et commence ensuite à intégrer la technologie derrière ChatGPT dans des produits comme Bing, Office ou Outlook[31].
En , la société OpenAI est valorisée à 29 milliards de dollars américains[32].
Le , OpenAI annonce officiellement GPT-4, un modèle de langage plus puissant et capable aussi d'analyser des images[33]. Une version de ChatGPT basée sur GPT-4 devient accessible via l'abonnement payant "ChatGPT Plus"[33].
En mai 2023, les cofondateurs d'OpenAI Sam Altman, Greg Brockman et Ilya Sutskever publient des recommandations sur la gouvernance des superintelligences[34],[35]. Ils y déclarent qu'en moins de 10 ans, l'IA pourrait dépasser les compétences des meilleurs experts dans la plupart des domaines, ouvrant la voie à un futur « radicalement plus prospère » à condition de « gérer les risques pour y arriver »[36]. Ils y recommandent d'encourager la recherche sur la question du contrôle des superintelligences, ainsi que d'améliorer la coordination internationale par exemple à travers un projet commun, et de créer une organisation de surveillance similaire à l'Agence internationale de l'énergie atomique (AIEA) pour superviser les modèles d'IA les plus puissants. Ils estiment cependant que ces mesures ne devraient concerner que les modèles d'IA dépassant un certain seuil d'aptitude, afin de ne pas entraver l'innovation pour des modèles moins dangereux[34],[35].
Après avoir ouvert un bureau londonien en juin 2023, son premier hors des États-Unis, OpenAI annonce également s'installer dans l'Union européenne en ouvrant un bureau à Dublin fin 2023[37].
En , Sam Altman est destitué de son poste de CEO en raison du manque de confiance du conseil d'administration à son égard, la directrice technique Mira Murati prenant la relève de manière intérimaire[38]. Le même jour, Greg Brockman, cofondateur d'OpenAI, annonce son départ comme président du conseil d'administration[39]. Deux jours plus tard, Emmett Shear est annoncé au poste de CEO par intérim[40], tandis qu’Altman et Brockman rejoignent les rangs de Microsoft[41]. Quelques jours plus tard, Sam Altman redevient CEO d'OpenAI et Greg Brockman réintègre le conseil d'administration.
Le 13 mai 2024, OpenAI intègre son nouveau modèle GPT-4o à ChatGPT. Celui-ci peut traiter et générer du texte, du son ainsi que des images. Il est également deux fois plus rapide que GPT-4 Turbo, tout en offrant de meilleures performances[42].
Le 14 mai 2024, le scientifique en chef Ilya Sutskever démissionne et est remplacé par Jakub Pachocki[43]. Quelques heures plus tard, Jan Leike, qui menait avec Ilya Sutskever le projet de « superalignement », démissionne également, citant une érosion de la confiance dans la direction et un manque de priorisation de la sécurité[44]. Cela fait suite à des démissions et licenciements d'autres chercheurs en sûreté de l'IA dans les mois qui précèdent[45]. Le 5 août 2024, John Schulman, cofondateur d'OpenAI et figure clé du développement de ChatGPT, a quitté OpenAI pour rejoindre la startup concurrente Anthropic et se concentrer sur la recherche en alignement de l'IA[46].
Fin septembre 2024, Mira Murati annonce son départ de l'entreprise, en même temps que Bob McGrew, directeur de la recherche de l'entreprise, et Barret Zoph, vice-président de la recherche. Avec ces départs, Sam Altman et Wojciech Zaremba sont alors les seuls cofondateurs restants de l'équipe initiale (de 11 personnes)[47],[48]. Cela survient peu après que des rumeurs aient suggéré un potentiel changement de la structure de l'entreprise, qui passerait d'une entité à but lucratif plafonné (OpenAI Global, LLC) contrôlée par une entité à but non lucratif (OpenAI, Inc.) à une entreprise d'utilité publique, qui serait plus propice à la recherche de bénéfices[49],[50].
Le 2 octobre 2024, OpenAI annonce une nouvelle levée de fonds de 6,6 milliards de dollars, donnant à l'entreprise une valeur de 157 milliards de dollars[51]. Dans le même mois, on apprend que l'entente entre Microsoft et OpenAI, Microsoft obtient 75% de tous les bénéfices d’OpenAI jusqu’à ce que les 13 milliards de dollars investis soient remboursés[52]. Le 9 octobre 2024, OpenAI annonce l'ouverture d'un bureau à Paris avant la fin de l'année [53]. Le même mois, Sébastien Bubeck , l'un des chercheurs en intelligence artificielle les plus important de Microsoft, est débauché par OpenAI et rejoint l'entreprise.
Motivations
Certains scientifiques comme Stephen Hawking et Stuart Russell ont évoqué le risque que l'IA soit dans le futur capable de s'auto-améliorer, ce qui selon eux pourrait causer une « explosion d'intelligence » pouvant mener à l'extinction de l'humanité. Le cofondateur Elon Musk a décrit l'IA comme la « pire menace existentielle »[54]. OpenAI a été créée dans le but de réduire ces risques. Les fondateurs en ont fait un organisme à but non lucratif, afin qu'elle concentre ses recherches sur les moyens de rendre l'IA bénéfique pour l'humanité[55].
Elon Musk et Sam Altman ont affirmé être en partie motivés par la sûreté des intelligences artificielles et les risques de catastrophe planétaire liés à l'intelligence artificielle générale[56],[57]. Selon OpenAI, « il est difficile d'imaginer à quel point l'IA de niveau humain pourrait améliorer la société, et il est tout aussi difficile d'imaginer à quel point ça pourrait nuire à la société si c'était mal conçu ou utilisé »[58]. Remettre à plus tard la recherche sur la sûreté pourrait être dangereux : « il est difficile de prédire quand l'IA de niveau humain pourrait devenir faisable »[59]. OpenAI affirme que l'IA « devrait être une extension de la volonté humaine et, dans un esprit de liberté, distribuée aussi largement et aussi équitablement que possible »[60]. Sam Altman s'attend en 2015 à ce que ce projet dépasse un jour l'intelligence humaine[61].
L'ancien PDG de Infosys Vishal Sikka a annoncé en 2015 que le fait que OpenAI soit ouvert et produise des résultats dans l'intérêt général de l'humanité était une condition essentielle de son support, ajoutant que « OpenAI s'aligne très bien avec nos valeurs de longue date »[62]. Cade Metz, du magazine Wired, suggère que des corporations comme Amazon pourraient être motivées par le fait d'utiliser des logiciels et des données open source pour se mettre au niveau de corporations comme Google et Facebook, qui ont d'énormes quantités de données propriétaires[61].
Stratégie
Elon Musk a posé la question : « Quelle est la meilleure chose que vous puissiez faire pour garantir que le futur soit bien ? Nous pourrions nous poser à l'écart ou encourager une surveillance réglementaire, ou nous pourrions participer avec la bonne structure et avec des personnes qui se soucient profondément du fait de développer l'IA de manière sûre et bénéfique pour l'humanité[63]. » Il a reconnu qu'« il y a toujours un risque pour qu'en essayant de faire avancer l'IA [amicale] on puisse créer ce qui nous inquiète[64] » mais affirme que la meilleure défense est « de permettre au plus grand nombre d'avoir accès à l'IA. Si tout le monde a des pouvoirs d'IA, alors il n'y a aucun individu ou petit groupe d'individus possédant des super-pouvoirs d'IA[65]. »
La stratégie contre-intuitive d'Elon Musk et Sam Altman pour réduire les risques à grande échelle posés par l'IA, qui consiste à donner à tout le monde accès à l'IA, est controversée même parmi ceux qui s'inquiètent de risques de catastrophe planétaire liés. Le philosophe Nick Bostrom est sceptique face à cette approche : « Si vous avez un bouton qui pourrait avoir un mauvais effet sur le monde, vous n'avez pas envie de le donner à tout le monde[57]. » Au cours d'une conversation sur la singularité technologique en 2016, Sam Altman a dit qu'ils ne prévoyaient pas de diffuser tout leur code source et a mentionné un plan pour permettre à des gens du monde entier d'élire des représentants pour un nouveau conseil d'administration[66].
La décision initiale d'OpenAI, en 2019, de ne pas diffuser le code source de GPT-2 pour éviter le risque d'usages malveillants a été critiquée par les partisans d'un modèle ouvert au grand public, notamment parce que la recherche scientifique aurait besoin qu'OpenAI publie son travail pour pouvoir répliquer les résultats et pour mettre en place des contre-mesures. Delip Rao, expert en génération de texte, suggère aussi qu'OpenAI n'a pas « passé suffisamment de temps à prouver que c'était dangereux »[67].
En 2022, OpenAI a publié sa stratégie concernant le problème de l'alignement[68]. OpenAI s'attend à ce que les techniques du moment ne suffisent pas à sécuriser les intelligences artificielles générales (IAG) : « l'IAG pourrait poser des risques substantiels à l'humanité, et résoudre le problème de l'alignement des IAG pourrait s'avérer si difficile que cela nécessiterait que toute l'humanité y travaille ensemble ». Ses membres explorent comment mieux exploiter les préférences humaines pour entraîner leurs systèmes d'IA. Ils envisagent aussi d'utiliser l'IA pour automatiser progressivement la recherche sur l'alignement[69].
Produits
GPT-2
En février 2019, OpenAI met au point une intelligence artificielle nommée GPT-2 (Generative Pre-trained Transformer 2), capable d'écrire des articles de presse et des œuvres de fiction.
Reposant sur un générateur de texte qui assimile les mots reçus et détermine la suite la plus logique, qu'elle retransmet dans le même style, elle s'avère particulièrement performante, à tel point qu'il est impossible de faire la différence avec un texte écrit par un être humain[70].
Les chercheurs lui ont par exemple donné à lire la première phrase du roman 1984 de George Orwell : « C'était une journée ensoleillée et froide du mois d'avril et les horloges affichaient 13 h. » GPT-2 a alors compris qu'il s'agissait d'une œuvre évoquant le passé et écrite sous la forme d'une fiction et a ajouté : « J'étais dans ma voiture à Seattle en route pour mon nouveau travail. J'ai fait le plein, mis la clé sur le contact, et me suis laissé porter. J'ai imaginé à quoi ressemblerait ce jour. Dans cent ans à partir de ce jour. En 2045, j'étais professeur dans une école située dans une région pauvre de la Chine rurale. J'ai commencé avec l'Histoire de la Chine et l'Histoire de la science. » Ils lui ont également présenté un article du Guardian sur le Brexit et l'IA a été capable d'inventer des citations crédibles du député Jeremy Corbyn, principal opposant à Theresa May, et d'évoquer des thématiques précises liées au sujet, comme celle de la frontière irlandaise. Les chercheurs retardent la publication de leurs recherches, car ils estiment que GPT-2 a un potentiel « trop dangereux », étant donné que cette IA pourrait à terme servir à des actes mal intentionnés, comme générer des avis négatifs ou positifs sur des produits, des spams, des textes complotistes, voire des fausses nouvelles[71].
GPT-3
La version bêta privée du successeur de GPT-2 ouvre en . Encore plus puissante, cette intelligence artificielle destinée au traitement du langage naturel présente 175 milliards de paramètres, soit au moins dix fois plus que n'importe quel programme comparable jusqu'alors[72],[73] Différentes versions de GPT-3 peuvent être testées via le "playground" d'OpenAI[74].
GPT-4
Le 14 mars 2023, OpenAI annonce la sortie de GPT-4, qui est capable de traiter non seulement du texte, mais aussi des images[75]. GPT-4 peut lire, analyser et générer jusqu'à 25 000 mots[76], et écrire dans tous les principaux langages de programmation.
ChatGPT
Dérivé du modèle GPT-3.5 et lancé en novembre 2022, ChatGPT est un modèle de langage formé à partir d'une vaste quantité de données textuelles afin d'acquérir une compréhension approfondie du langage humain. ChatGPT peut être utilisé pour générer du texte de manière autonome, en imitant les styles et les sujets de conversation humains. Il peut également être utilisé pour améliorer les systèmes de dialogue en leur fournissant des réponses naturelles et pertinentes. En outre, ChatGPT peut s'adapter aux nouvelles données et retours des utilisateurs pour affiner ses capacités linguistiques, quand bien même cela suppose de renouveler un entraînement pour les intégrer[77],[78],[79].
L'une des caractéristiques de ChatGPT qui contribue à sa qualité de réponse est sa capacité à tenir compte du contexte grâce à sa mémorisation de la conversation en cours (jusqu'à un maximum de 3 000 mots environ)[80].
Dès la sortie de GPT-4, ce modèle est ajouté à ChatGPT pour ses utilisateurs payants. OpenAI continue ensuite à développer des outils pour GPT-4 et à les intégrer sur ChatGPT, comme les plugins Avanced data analysis, Bing search ou DALL-E 3[81]
Une application mobile officielle voit également le jour sous Android et iOS, qui permet notamment de discuter de vive voix avec ChatGPT pour les abonnés[82],[83]
Fin octobre 2024, OpenAI dévoile "ChatGPT search", son moteur de recherche intégré à ChatGPT. Une annonce qui officialise une fonctionnalité attendue de longue date, et qui vient placer la start-up en concurrence frontale avec le géant du marché Google, son propre bailleur de fonds Microsoft (et son moteur Bing), ou encore la start-up IA spécialisée sur la recherche la plus connue, Perplexity.
DALL-E
Dérivé du modèle GPT-3, OpenAI développe également un générateur d'images nommé DALL-E, mot-valise évoquant à la fois le robot de Pixar WALL-E et le peintre Salvador Dalí. Ce modèle génératif peut créer des images originales à partir de texte[84]. Le programme est capable de mettre en illustration des concepts très abstraits, voire farfelus, comme les dessins d'un radis promenant un chien en laisse[85].
DALL-E 2
Deuxième modèle crée par OpenAI permettant de générer des images plus détaillés en s'appuyant sur des descriptions plus précises.
DALL-E 3
Fin septembre 2023, OpenAI annonce sortir DALL-E 3, son dernier modèle de génération d'images à partir de texte, qui permet depuis de générer du texte cohérent sur les images. DALL-E 3 est également ajouté sur ChatGPT-4 pour les utilisateurs abonnés[86].
Sora
Annoncé le Sora est une intelligence artificielle développée par OpenAI, capable de générer des vidéos ultra-réalistes à partir d’un simple texte. Basée sur les recherches antérieures menées sur les programmes DALL-E et GPT, Sora est une innovation majeure dans le domaine de l’intelligence artificielle.
Sora peut générer des scènes complexes avec plusieurs personnages, des mouvements de caméra spécifiques et de nombreux détails apportés au sujet comme à l’arrière-plan. Elle peut créer des vidéos d’une durée maximale d’une minute tout en maintenant une qualité visuelle et respectant la demande de l’utilisateur. Sora peut également créer une vidéo à partir d’une image fixe ou allonger des vidéos existantes[87],[88].
Microscope
Sorti en 2020, Microscope est un outil permettant de visualiser les neurones et couches de certains réseaux de neurones connus. Il est utilisé pour mieux comprendre le fonctionnement interne des réseaux de neurones[89].
Whisper
Sorti en 2022, Whisper est un modèle polyvalent et multilingue de reconnaissance vocale. Il peut aussi identifier une langue et même effectuer des traductions, par exemple de vidéos ou films[90].
GPTBot et collecte de contenu
Pour entrainer ses modèles, OpenAI procède à un crawling du web par son bot, nommé GPTBot. En janvier 2024, 88% des principaux médias américains d'information bloquent GPTBot. Une analyse du magazine Wired indique que les médias de droite ont plus tendance à refuser de bloquer le scraping de leur sites[91]. En France, des médias de premier plan (Radio France, BFM TV, le groupe TF1 , Le Figaro, L'Express, Le Point, Libération, Le Nouvel Obs, Mediapart, Télérama) bloquent l'accès d'OpenAI à leurs contenus[92],[93]. Parmi les sites qui ont restreint l’accès au robot, on retrouve également Amazon et Quora.
Controverses
Contrat avec Sama
Une enquête de l’hebdomadaire Time publiée le 18 janvier 2023 décrit un contrat que OpenAI a passé avec Sama, une entreprise basée à San Francisco qui emploie des travailleurs au Kenya. OpenAI souhaitait entraîner un algorithme d'apprentissage automatique pour filtrer des textes en fonction de leur toxicité, permettant d'épurer les données d'entraînement de modèles de langage comme ChatGPT et les rendant ainsi moins toxiques. Pour entraîner cet algorithme à reconnaître si un texte est toxique ou non, OpenAI avait besoin d'exemples annotés et a fait appel à l'entreprise Sama pour l'annotation. Des employés de celle-ci se sont déclarés psychologiquement marqués par ce travail, les textes décrivant parfois des automutilations, incestes, contenus pédopornographiques ou tortures. Sur une journée de neuf heures, des employés ont déclaré devoir lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots et y signaler les passages sensibles. Le salaire versé par Sama à ses annotateurs était de 1,32 à 2 dollars de l’heure hors taxe (OpenAI ayant versé à Sama pour la prestation 12,50 dollars par heure de travail)[94],[95].
Activités à but lucratif
La création d'une filiale à but lucratif, le partenariat avec Microsoft et l'absence de publication des résultats de recherche et du code source ont été critiqués par certaines personnalités telles qu'Elon Musk, cofondateur d'Open AI, qui y voit une trahison de la mission que s'était fixée l'organisation lors de sa fondation[96],[97]
Bref départ d'Altman et de Brockman
Le , Sam Altman est destitué de son poste de directeur de l'information à la suite d'une décision du conseil d'administration, composé de Helen Toner, Ilya Sutskever, Adam D'Angelo et Tasha McCauley, citant un manque de confiance en lui. Mira Murati, directrice de la technologie, assure l'intérim. Greg Brockman, président de OpenAI, est également destitué de son poste de président du conseil d'administration[98],[99]. Peu après cette annonce, Brockman démissionne de la présidence de l'entreprise et rapporte certains détails des événements[100],[101]. Cette situation est suivie par la démission de trois chercheurs seniors de OpenAI : le directeur de recherche et responsable du GPT-4 Jakub Pachocki, le responsable des risques liés à l'IA Aleksander Madry et le chercheur Szymon Sidor[102],[103]. Les journalistes Kara Swisher et Alex Heath indiquent que Ilya Sutskever, leader de l'équipe de recherche de OpenAI, a joué un rôle "déterminant" dans le licenciement d'Altman[104].
Le , des discussions auraient eu lieu concernant le retour d'Altman dans son rôle de directeur de l'information sous la pression des investisseurs tels que Microsoft et Thrive Capital, qui ont condamné le départ d'Altman[105]. Bien qu'Altman lui-même se soit exprimé en faveur de son retour chez OpenAI, il a déclaré envisager de créer une nouvelle entreprise et d'emmener avec lui d'anciens employés de OpenAI si les discussions n'aboutissaient pas[106]. S'il revenait, il a dit que les membres du conseil d'administration démissionneraient "en principe" de l'entreprise[107]. Le , les négociations avec Altman pour revenir à l'entreprise échouent et Murati est remplacée par Emmett Shear pour assurer l'intérim en tant que directeur de l'information[108]. Le conseil d'administration a contacté le PDG d'Anthropic, Dario Amodei, qui était un ancien exécutif chez OpenAI. Le but était de remplacer Sam Altman mais aussi potentiellement de fusionner les deux entreprises, mais Dario Amodei a décliné les deux offres[109].
Le , le PDG de Microsoft, Satya Nadella, annonce que Altman et Brockman rejoindront l'entreprise pour diriger une nouvelle équipe de recherche sur l'IA avancée, et déclarent rester engagés envers OpenAI malgré les événements[110]. Le partenariat n'a pas été certifié alors qu'Altman donne une autre opportunité au conseil d'administration de négocier avec lui[111]. Environ 738 des 770 employés d'OpenAI, y compris Murati et Sutskever, ont signé une lettre ouverte déclarant qu'ils quitteraient leur emploi et rejoindraient Microsoft si le conseil d'administration ne réembauche pas Altman comme PDG puis démissionne[112],[113]. Les investisseurs envisagent d'intenter une action en justice contre les membres du conseil d'administration en réponse aux démissions massives potentielles et au renvoi d'Altman[114]. En réponse, la direction d'OpenAI a envoyé une note interne aux employés indiquant que les négociations avec Altman et le conseil d'administration sont de nouveau en cours et prendront du temps[115].
Le , après des négociations continues, Altman et Brockman reviennent dans l'entreprise comme CEO et President, accompagnés d'un conseil d'administration restructuré composé de nouveaux membres, Bret Taylor (en tant que président) et Lawrence Summers, et d'Adam D'Angelo qui reste[116]. Brockman et Sutskever ne sont plus membres du conseil d'administration.
Accords de non-dénigrement
Le 17 mai 2024, un article du journal Vox rapporte que OpenAI demande aux employés qui partent de signer un accord de non-dénigrement qui leur interdit à vie de critiquer OpenAI, ou même de reconnaître l'existence de l'accord. Daniel Kokotajlo, un ancien employé, a publiquement déclaré avoir renoncé à ses actions acquises dans OpenAI afin de partir sans signer l'accord[117],[118]. Sam Altman a affirmé qu'il n'avait pas connaissance de la clause d'annulation des actions en cas de non-signature de l'accord, et que OpenAI ne l'a jamais utilisée pour annuler les actions d'un employé[119]. Vox a ensuite publié des documents et emails divulgués remettant en cause cette affirmation[120]. Le 23 mai 2024, OpenAI a envoyé une note libérant ses anciens employés de l'accord[121].
Plainte de NOYB
Max Schrems, au nom de l'association NOYB, a déposé plainte auprès de la Datenschutzbehörde (DSB), pour non respect des règles du RGPD. En effet, il souligne qu'il est possible d'avoir accès à des données personnelles par Chat GPT, sans pour autant avoir la possibilité de les corriger si ces informations se révèlent inexactes. Selon NOYB, 3 articles du RGPD sont enfreints :
- l'article 5 qui stipule que les données personnelles doivent être exactes, et mises à jour si nécessaire ;
- l'article 16 qui stipule que les individus ont le droit de modifier ou supprimer les données personnelles les concernant ;
- l'article 15 qui stipule que les entreprises détentrices de données personnelles, doivent être dans la capacité de les montrer, ainsi que les sources utilisées.
NOYB remarque qu'inventer de fausses informations sur les individus est en soi problématique. De plus, Open AI est dans l'incapacité de se conformer au RGPD en ce qui concerne le droit des individus[122].
Notes et références
- Gilles Fontaine, « IA: plongée à l’intérieur de la machine OpenAI », sur Challenges, (consulté le )
- « Avec GPT-4o, OpenAI ouvre les vannes du multimodal - Le Monde Informatique », sur Le Monde Informatique, (consulté le )
- Bastien L, « DALL-E 3 est là et permet de générer des images sur ChatGPT ! Découvrez la surprise d’OpenAI », sur LEBIGDATA.FR, (consulté le )
- Jacques Cheminat, « Avec Sora, OpenAI impressionne dans la génération de vidéo », sur Le Monde Informatique, (consulté le )
- Ariane Beky, « ChatGPT capte 100 millions d'utilisateurs en deux mois », sur Silicon, (consulté le )
- (en) « Our structure », sur OpenAI
- Chloé Woitier, « Concurrence : Bruxelles examine l'investissement de Microsoft dans OpenAI », sur Le Figaro, (consulté le )
- (en) Emma Roth, « Microsoft spent hundreds of millions of dollars on a ChatGPT supercomputer », sur The Verge, (consulté le )
- Héloïse Uberti, « Licenciement puis retour de Sam Altman : c’est quoi ce bazar chez OpenAI ? », sur Capital, (consulté le )
- « OpenAI fait l'objet d'une nouvelle action en justice concernant les données de formation de ChatGPT », sur Forbes France, (consulté le )
- Sylvain Trinel, « ChatGPT: l'entreprise OpenAI pourrait changer de statut pour faire des profits illimités », sur BFMTV (consulté le )
- « OpenAI dans la tourmente : ce scandale met en lumière des pratiques controversées ! », sur lebigdata.fr, (consulté le )
- « OpenAI : dissolution de l’équipe chargée de la sécurité d’une potentielle superintelligence artificielle », Le Monde.fr, (lire en ligne, consulté le )
- Thomas Pontiroli, « OpenAI, ou l'espoir d'une IA à visage humain », sur Clubic, .
- Thierry Noisette, « Intelligence artificielle: OpenAI est créé par Elon Musk, Peter Thiel, Amazon Web Services et d'autres », sur ZDNet, .
- « Elon Musk lance un centre sur l’intelligence artificielle pour « bénéficier à l’humanité » », Le Monde, (lire en ligne, consulté le ).
- « OpenAI: Musk veut l’intelligence artificielle au service de tous », sur BFM TV (consulté le ).
- (en-US) Cade Metz, « Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free », Wired, (ISSN 1059-1028, lire en ligne, consulté le )
- (en) « Introducing OpenAI », sur OpenAI.
- Joséphine Boone, « Qui est Open AI, le laboratoire derrière l'intelligence artificielle star ChatGPT ? » , sur Les Échos, (consulté le ).
- Julien Lausson, « Pourquoi Elon Musk râle contre OpenAI alors qu'il en est le fondateur ? » , sur Numerama, (consulté le ).
- (en) « OpenAI shifts from nonprofit to ‘capped-profit’ to attract capital », TechCrunch, (lire en ligne).
- « OpenAI devient une société à "but lucratif plafonné" pour attirer de nouveaux capitaux », sur Siècle Digital, (consulté le ).
- Malagigi Boutot, « OpenAI, une « entreprise à but lucratif plafonné » unique au monde » , sur Générations nouvelles, (consulté le ).
- François Manens, « Pourquoi Microsoft mise un milliard de dollars sur la pépite OpenAI » , sur La Tribune, (consulté le ).
- Bastien L, « ChatGPT : qu'est-ce que c'est ? Le guide complet », sur www.lebigdata.fr (consulté le )
- (en) « OpenAI Startup Fund », sur OpenAI (consulté le ).
- (en) Devin Coldewey, « OpenAI's $100M startup fund will make 'big early bets' with Microsoft as partner », sur TechCrunch, (consulté le )
- « ChatGPT : tout savoir sur cette intelligence artificielle qui déchaîne le Web », sur www.lesnumeriques.com, (consulté le )
- Raphaële Karayan, « Microsoft réinvestit 10 milliards de dollars dans OpenAI, la start-up derrière ChatGPT », L'usine digitale, (lire en ligne, consulté le )
- Jérôme Marin, « Microsoft ajoute un "copilote" basé sur GPT-4 à sa suite bureautique Office 365 », L'usine digitale, (lire en ligne, consulté le )
- « OpenAI pourrait bientôt valoir entre 80 et 90 milliards de dollars », sur La Presse, (consulté le )
- Sabrina Ortiz |, « GPT-4 : tout savoir sur le nouveau chatbot », sur ZDNet France, (consulté le )
- (en-US) « Governance of superintelligence », sur openai.com (consulté le )
- Decrypt / Jose Antonio Lanz, « OpenAI affirme que l'IA «dépassera le niveau de compétence des experts dans la plupart des domaines» dans 10 ans », sur Decrypt, (consulté le )
- (en-US) « Governance of superintelligence », sur openai.com (consulté le ) : « Given the picture as we see it now, it’s conceivable that within the next ten years, AI systems will exceed expert skill level in most domains, and carry out as much productive activity as one of today’s largest corporations.In terms of both potential upsides and downsides, superintelligence will be more powerful than other technologies humanity has had to contend with in the past. We can have a dramatically more prosperous future; but we have to manage risk to get there. »
- « OpenAI: le créateur de ChatGPT ouvre un bureau à Dublin », sur France 24, (consulté le ).
- (en-US) « OpenAI announces leadership transition », sur openai.com, (consulté le )
- (en) « Sam Altman removed as CEO of OpenAI, CTO Mira Murati appointed interim CEO », sur TechRepublic, (consulté le )
- (en) Tom Warren, « OpenAI’s new CEO is Twitch co-founder Emmett Shear », sur The Verge, (consulté le )
- (en) Tom Warren, « Microsoft hires former OpenAI CEO Sam Altman », sur The Verge, (consulté le )
- Célia Séramour, « Avec GPT-4o, OpenAI veut défier toute concurrence sur les modèles multimodaux », L'Usine Digitale, (lire en ligne, consulté le )
- (en) « Ilya Sutskever, Co-Founder and Chief Scientist, Leaves OpenAI », sur Time, (consulté le )
- (en) Sigal Samuel, « "I lost trust": Why the OpenAI team in charge of safeguarding humanity imploded », (consulté le )
- (en) Matthias Bastian, « OpenAI's AI safety teams lost at least seven researchers in recent months », (consulté le )
- (en-US) Kyle Wiggers, « OpenAI co-founder Schulman leaves for Anthropic, Brockman takes extended leave », sur TechCrunch, (consulté le )
- « OpenAI perd sa CTO Mira Murati et deux membres clés de son équipe de recherche », 26 septembre 2024, (lire en ligne, consulté le )
- « Le départ surprise de «l’architecte de ChatGPT» fragilise OpenAI en pleine levée de fonds », sur Le Figaro, (consulté le )
- « La cheffe de la technologie d’OpenAI Mira Murati démissionne », sur Radio-Canada, (consulté le )
- « OpenAI: Sam Altman de plus en plus seul à la tête de l'entreprise », sur BFMTV (consulté le )
- (en) OpenAI, « New funding to scale the benefits of AI », OpenAI, (lire en ligne)
- Sam Boughedda, « OpenAI leaders say Microsoft isn't moving fast enough to supply server », sur The Information, (consulté le )
- « OpenAI va ouvrir un bureau à Paris », sur Le Monde, (consulté le )
- (en) Kelsey Piper, « Why Elon Musk fears artificial intelligence », sur Vox, (consulté le ).
- (en-GB) « Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI », BBC News, (lire en ligne, consulté le ).
- (en) « Open AI: Effort to democratize artificial intelligence research? », Christian Science Monitor, (ISSN 0882-7729, lire en ligne, consulté le ).
- (en-US) Cade Metz, « Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free », Wired, (ISSN 1059-1028, lire en ligne, consulté le ) :
« If you have a button that could do bad things to the world, you don't want to give it to everyone. »
- (en-US) « Introducing OpenAI », sur openai.com (consulté le ) : « It's hard to fathom how much human-level AI could benefit society, and it's equally hard to imagine how much it could damage society if built or used incorrectly. »
- (en) « Tech leaders launch nonprofit to save the world from killer robots », Christian Science Monitor, (ISSN 0882-7729, lire en ligne, consulté le ) :
« Because of AI's surprising history, it's hard to predict when human-level AI might come within reach. »
- (en-GB) « Tech giants pledge $1bn for 'altruistic AI' venture, OpenAI », BBC News, (lire en ligne, consulté le ) :
.« should be an extension of individual human wills and, in the spirit of liberty, as broadly and evenly distributed as is possible safely »
- (en-US) Cade Metz, « Elon Musk's Billion-Dollar AI Plan Is About Far More Than Saving the World », Wired, 2015--12-15 (ISSN 1059-1028, lire en ligne, consulté le ).
- Vishal Sikka, « OpenAI: AI for All » [archive du ], sur InfyTalk, Infosys, (consulté le ) : « OpenAI aligns very nicely with our long-held values. ».
- (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « What is the best thing we can do to ensure the future is good? We could sit on the sidelines or we can encourage regulatory oversight, or we could participate with the right structure with people who care deeply about developing AI in a way that is safe and is beneficial to humanity. »
- (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « There is always some risk that in actually trying to advance AI we may create the thing we are concerned about ».
- (en-US) « Silicon Valley investors to bankroll artificial-intelligence center », sur The Seattle Times, (consulté le ) : « to empower as many people as possible to have AI. If everyone has AI powers, then there's not any one person or a small set of individuals who can have AI superpower. »
- (en-US) Condé Nast, « Sam Altman’s Manifest Destiny », sur The New Yorker, (consulté le ).
- (en-US) James Vincent, « AI researchers debate the ethics of sharing potentially harmful programs », sur The Verge, (consulté le ) : « The words ‘too dangerous’ were casually thrown out here without a lot of thought or experimentation. I don’t think [OpenAI] spent enough time proving it was actually dangerous. »
- (en-US) « Our approach to alignment research », sur openai.com (consulté le ).
- (en-US) « Our approach to alignment research », sur openai.com (consulté le ) : « Unaligned AGI could pose substantial risks to humanity and solving the AGI alignment problem could be so difficult that it will require all of humanity to work together. »
- Thomas Burgel, « Tester le générateur de texte d'OpenAI est étonnant, drôle et angoissant », sur Korii, Slate, (consulté le ).
- (en) « Elon Musk backed AI writes news fiction », The Guardian, (lire en ligne).
- « GPT-3 : OpenAI dévoile son impressionnant modèle de traitement de langage naturel », sur Siècle digital, (consulté le ).
- Zacharie Tazrout, « Whisper, le système de reconnaissance vocale d'OpenAI, devient open source », sur Siècle Digital, (consulté le ).
- Aurore Gayte, « GPT-3 : comment générer du texte grâce à l'intelligence artificielle d'OpenAI », sur Numerama, (consulté le )
- (en-US) James Vincent, « OpenAI announces GPT-4 — the next generation of its AI language model », sur The Verge, (consulté le ).
- Etudes Tech, « Ce qu'il est possible de faire avec Chat GPT-4 d'Open Ai », sur Études Tech, (consulté le ).
- Martin Clavey, « ChatGPT : Open AI rend son bot plus responsable » , Next INpact, (consulté le ).
- (en) Mike Pearl, « The ChatGPT chatbot from OpenAI is amazing, creative, and totally wrong » , Mashable, (consulté le ).
- (en) Kevin Roose, « The Brilliance and Weirdness of ChatGPT » , The New York Times, (consulté le ).
- (en) « Does ChatGPT remember what happened earlier in the conversation? », sur help.openai.com (consulté le ).
- (en-US) « ChatGPT plugins », sur openai.com (consulté le ).
- (en-US) « Introducing the ChatGPT app for iOS », sur openai.com (consulté le ).
- (en-US) « ChatGPT can now see, hear, and speak », sur openai.com (consulté le ).
- Valentin Cimino, « DALL-E : l'IA d'OpenAI capable de générer une image à partir d'une phrase », sur Siècle digital, (consulté le ).
- Elina S, « DALL-E : la nouvelle IA d’OpenAI crée des images à partir de textes », sur LeBigData.fr, (consulté le )
- (en-US) « DALL·E 3 », sur openai.com (consulté le ).
- Agence France-Presse, « Sora, le dernier outil vidéo d'OpenAI, inquiète créateurs et médias », sur Journal de Montréal, (consulté le )
- Jacaudrey Charbonneau, « Intelligence artificielle : Sora génère des vidéos impressionnantes », sur Radio-Canada, (consulté le )
- (en-US) « OpenAI Microscope », sur openai.com (consulté le )
- Clément Bohic, « Whisper : un modèle multilingue made in OpenAI émerge face à BLOOM », sur Silicon, (consulté le )
- Zacharie Tazrout, « Whisper, le système de reconnaissance vocale d'OpenAI, devient open source », sur Siècle digital, (consulté le ).
- « IA : le robot GPTBot d’OpenAI crispe les médias internationaux », sur L'Express, (consulté le )
- (en) Olivier Martinez, « Quels sites bloquent GPTbot d’OpenAI, Bard de Google et Claude d’Anthropic en France le 22 décembre? », sur Medium, (consulté le )
- « Intelligence artificielle. Au Kenya, l’enfer des petites mains précaires de ChatGPT », sur Courrier international, (consulté le ).
- (en) « Exclusive: The $2 Per Hour Workers Who Made ChatGPT Safer », sur Time, (consulté le ).
- (en) « OpenAI Is Now Everything It Promised Not to Be: Corporate, Closed-Source, and For-Profit », Vice (consulté le ).
- (en-US) James Vincent, « OpenAI co-founder on company’s past approach to openly sharing research: “We were wrong” », sur The Verge, (consulté le ).
- (en-US) « OpenAI announces leadership transition » [archive], sur openai.com, (consulté le )
- (en) Blake Montgomery et Dani Anguiano, « OpenAI fires co-founder and CEO Sam Altman for allegedly lying to company board » [archive], sur The Guardian, (consulté le )
- (en) Jay Peters, « OpenAI co-founder Greg Brockman is leaving, too » [archive], sur The Verge, (consulté le )
- « Sam and I are shocked and saddened by what the board did today » [archive], X, (consulté le )
- « Three Senior OpenAI Researchers Resign as Crisis Deepens » [archive], sur The Information (consulté le )
- (en-US) Benj Edwards, « Details emerge of surprise board coup that ousted CEO Sam Altman at OpenAI » [archive], sur Ars Technica, (consulté le )
- (en) Alex Heath, « What happened to Sam Altman? » [archive], sur The Verge, (consulté le )
- Keach Hagey Seetharaman, « OpenAI Investors Trying to Get Sam Altman Back as CEO After Sudden Firing » [archive], sur WSJ (consulté le )
- Cade Metz, Mike Isaac et Erin Griffith, « Sam Altman Is Said to Be Discussing Return to OpenAI With Company’s Board » [archive], sur The New York Times, (consulté le )
- (en) Nilay Patel, « OpenAI board in discussions with Sam Altman to return as CEO » [archive], sur The Verge, (consulté le )
- (en) Alex Heath, « The deal to bring Sam Altman back to OpenAI has fallen apart » [archive du ], sur The Verge, (consulté le )
- (en) Jeffrey Dastin, « OpenAI's board approached Anthropic CEO about top job and merger », sur Reuters, (consulté le )
- (en) Tom Warren, « Microsoft hires former OpenAI CEO Sam Altman » [archive du ], sur The Verge, (consulté le )
- (en) Nilay Patel, « Sam Altman is still trying to return as OpenAI CEO » [archive du ], sur The Verge, (consulté le )
- (en) « OpenAI Staff Near Total Mutiny With Threat to Jump to Microsoft » [archive du ], sur Bloomberg (consulté le )
- Will Knight, « OpenAI Staff Threaten to Quit Unless Board Resigns » [archive du ], sur Wired (consulté le )
- (en) Anna Tong, Krystal Hu, Anna Tong et Krystal Hu, « Exclusive: OpenAI investors considering suing the board after CEO's abrupt firing », sur Reuters,
- (en) Richard Lawler, « OpenAI exec to employees: “our number one goal remains to reunify OpenAI.” », sur The Verge,
- (en) Alex Heath, « Breaking: Sam Altman to return as CEO of OpenAI », sur The Verge, .
- (en) Kelsey Piper, « ChatGPT can talk, but OpenAI employees sure can’t », (consulté le )
- (en) Jon Christian, « OpenAI Employees Forced to Sign NDA Preventing Them From Ever Criticizing Company », sur Futurism, (consulté le )
- (en) Hannah Getahun, « Sam Altman addresses 'potential equity cancellation' in OpenAI exit agreements after 2 high-profile departures », sur Business Insider, (consulté le )
- (en) Kelsey Piper, « Leaked OpenAI documents reveal aggressive tactics toward former employees », sur Vox, (consulté le )
- (en) Hayden Field, « OpenAI sends internal memo releasing former employees from controversial exit agreements », sur CNBC, (consulté le )
- Yoann Bourgin, « Noyb porte plainte contre OpenAI pour mauvais traitement des données personnelles » , L'Usine digitale, (consulté le )
Voir aussi
Presse
- « OpenAI déploie une nouvelle mise à jour de son générateur de texte GPT-2… et vous pouvez l’essayer ! », sur itsocial.fr, le .
Articles connexes
- AI Dungeon 2, jeu dont l'intrigue est générée par GPT-2
- Anthropic
- ChatGPT
- DALL-E
- GPT-3
- GPT-4
- Intelligence artificielle
- Intelligence artificielle générale
- Éthique de l'intelligence artificielle
- Histoire de l'intelligence artificielle
Liens externes
- (en) Site officiel
- Ressources relatives à la musique :
- Notice dans un dictionnaire ou une encyclopédie généraliste :