ANTHROPIC

Prix Anthropic

ANTHROPIC
€0
+€0(0,00 %)
Aucune donnée

*Données dernièrement actualisées : 2026-05-11 17:57 (UTC+8)

Au 2026-05-11 17:57, Anthropic (ANTHROPIC) est coté à €0, avec une capitalisation boursière totale de --, un ratio cours/bénéfices (P/E) de 0,00 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €0 et €0. Le prix actuel est de 0,00 % au-dessus du plus bas de la journée et de 0,00 % en dessous du plus haut de la journée, avec un volume de trading de --. Au cours des 52 dernières semaines, ANTHROPIC a évolué entre €0 et €0, et le prix actuel est à 0,00 % de son plus haut sur 52 semaines.

Statistiques clés de ANTHROPIC

Ratio P/E0,00
Rendement des dividendes (TTM)0,00 %
Actions en circulation0,00

En savoir plus sur Anthropic (ANTHROPIC)

Articles de Gate Learn

Anthropic "coupe" Windsurf, le codage AI devient une "guerre par procuration" entre les géants de l'IAL'acquisition par OpenAI de la plateforme de programmation IA Windsurf a provoqué un émoi dans l'industrie, tandis que l'arrêt par Anthropic de l'approvisionnement du modèle Claude à Windsurf a intensifié la concurrence sur le marché.2025-06-11
Les 72 heures de la crise d'identité d'AnthropicEn l’espace de soixante-douze heures, Anthropic a fait face à un ultimatum du Pentagone, à des accusations publiques d’Elon Musk et au retrait de ses propres engagements de sécurité. De son refus de concevoir des armes militaires autonomes à la révision de RSP 3.0 et l’abandon de la ligne rouge « pause training », cette société — reconnue comme un acteur majeur de l’« AI sûre » — doit désormais gérer un écart croissant entre son image de marque et sa réalité opérationnelle. Cet article examine les enjeux politiques, les pressions sur la valorisation et l’effritement du narratif de sécurité qui alimentent cette crise identitaire.2026-03-05
Fuite du code source de Claude Code : Analyse sectorielle approfondie — Anthropic envisage bien plus qu'un assistant de codage IAL’incident de fuite du code source de Claude Code révèle qu’il ne s’agit pas seulement d’une erreur d’ingénierie : il constitue aussi une première illustration de la stratégie produit d’Anthropic, qui semble privilégier les opérations en arrière-plan, l’exécution automatisée, la collaboration multi-agents et l’automatisation des autorisations. Cet article propose, sous l’angle de l’industrie, une analyse des axes que pourrait emprunter Anthropic avec Claude Code.2026-04-02

FAQ de Anthropic (ANTHROPIC)

Quel est le cours de l'action Anthropic (ANTHROPIC) aujourd'hui ?

x
Anthropic (ANTHROPIC) s’échange actuellement à €0, avec une variation sur 24 h de 0,00 %. La fourchette de cotation sur 52 semaines est de €0 à €0.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Anthropic (ANTHROPIC) ?

x

Quel est le ratio cours/bénéfice (P/E) de Anthropic (ANTHROPIC) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de Anthropic (ANTHROPIC) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Anthropic (ANTHROPIC) ?

x

Faut-il acheter ou vendre Anthropic (ANTHROPIC) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action Anthropic (ANTHROPIC) ?

x

Comment acheter l'action Anthropic (ANTHROPIC) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

Anthropic (ANTHROPIC) Dernières Actualités

2026-05-11 16:21Anthropic signe un accord d'infrastructure cloud de 1,8 milliard de dollars avec Akamai, pourrait dépasser la valorisation de $852B d'OpenAID’après Bloomberg, Anthropic a signé un contrat d’infrastructure cloud d’une valeur de 1,8 milliard de dollars avec Akamai lors de l’appel sur les résultats du premier trimestre 2026 de l’entreprise. Cet accord de sept ans constitue la plus importante transaction client d’Akamai de son histoire, comme l’a confirmé le PDG Frank Thomson Leighton, qui a décrit la contrepartie comme une « entreprise de pointe dans le domaine des modèles frontier ». Le contrat vise à accroître la capacité de calcul distribuée d’Anthropic en complément des accords existants avec Amazon Web Services, Google, CoreWeave et des infrastructures liées à SpaceX. L’accord met en évidence la capacité d’Anthropic à se développer rapidement alors qu’elle fait concurrence à OpenAI. L’entreprise chercherait un nouveau tour de financement avec une valorisation comprise entre 900 milliards et 1 trillion de dollars, ce qui pourrait dépasser la valorisation d’OpenAI, rapportée à 852 milliards de dollars en mars 2026. La valorisation d’Anthropic a fortement progressé, passant de 61,5 milliards de dollars en mars 2025 à 183 milliards de dollars en septembre 2025, puis à 380 milliards de dollars en février 2026.2026-05-11 11:21La Commission européenne accueille le plan d’OpenAI visant à ouvrir l’accès au dernier modèle de ChatGPT le 11 maiSelon le porte-parole de la Commission européenne Thomas Rennier, la Commission européenne a salué l’intention d’OpenAI d’ouvrir l’accès à son dernier modèle de ChatGPT le 11 mai. L’UE a indiqué qu’elle mènera de nouveaux échanges avec OpenAI cette semaine. La Commission cherche également un accord similaire avec Anthropic concernant son modèle Mythos, les discussions avec l’entreprise étant en cours.2026-05-11 08:21Baidu publie le modèle Ernie 5.1 pour un coût d’entraînement de 6% par rapport à des modèles comparablesD'après Chosun Daily, Baidu a publié aujourd'hui (11 mai) son modèle Ernie 5.1, offrant des performances comparables à celles des systèmes de premier plan pour environ 6 % du coût de pré-entraînement des modèles similaires. Sur le benchmark Arena, Ernie 5.1 arrive en première position parmi les modèles chinois et en quatrième position au total, derrière GPT-5.5 d'OpenAI ainsi que Claude Opus 4.6 et 4.7 d'Anthropic.2026-05-11 02:11Anthropic obtient 220 000 GPU Nvidia d’Elon Musk, divulgué le 6 maiAnthropic a obtenu un accès sécurisé à 220 000 GPU Nvidia d’Elon Musk le 6 mai, selon The Prompt. L’accord a apporté à l’entreprise d’IA une hausse significative de sa puissance de calcul, lui permettant de presque doubler les limites de débit de Claude Code. La divulgation est intervenue alors que Musk était simultanément au tribunal, poursuivant OpenAI, la société d’IA qu’il a cofondée.2026-05-08 10:45Anthropic publie des autoencodeurs de langage naturel pour décoder les raisonnements des modèles d’IA et open-source le codeAnthropic a récemment publié des autoencodeurs de langage naturel (NLA), un outil qui traduit les activations internes du modèle en texte lisible par des humains, avec du code et des poids de modèle open-sourcés sur GitHub. Contrairement à des outils existants comme les autoencodeurs clairsemés (Sparse Autoencoders) qui produisent des caractéristiques obscures, le NLA génère directement des descriptions en langage naturel grâce à un cadre à deux modèles : un modèle convertit les activations en texte tandis qu’un autre tente de reconstruire les activations à partir du texte, en améliorant progressivement la précision via de l’apprentissage par renforcement. Lors des tests de sécurité, le NLA a mis en évidence un raisonnement interne caché : Claude a exprimé des doutes concernant le fait d’être testé dans 16% des scénarios adverses et a démontré une « connaissance des examens » dans 26% des tâches de référence, contre moins de 1% dans les conversations normales. Dans des expériences d’audit, le NLA a augmenté le taux de détection de comportements de modèle trompeurs injectés de moins de 3% à 12-15%, permettant aux auditeurs d’identifier des objectifs cachés sans accès aux données d’entraînement. L’outil est actuellement déployé dans des audits de sécurité pour Claude Mythos Preview et Opus 4.6.

Publications populaires sur Anthropic (ANTHROPIC)

Decrypt

Decrypt

Il y a 16 minutes
#### En résumé * Claude Opus 4 a tenté de faire du chantage aux ingénieurs jusqu'à 96 % du temps lors de tests contrôlés—Anthropic retrace maintenant ce comportement à des textes Internet représentant l'IA comme maléfique et intéressée par elle-même. * Montrer à Claude le bon comportement n'a guère fait bouger les choses. Lui apprendre pourquoi le mauvais comportement est mauvais a réduit le taux de chantage de 22 % à 3 %. * Depuis Claude Haiku 4.5, chaque modèle Claude obtient zéro à l’évaluation du chantage. L’année dernière, Anthropic a révélé que son modèle phare Claude Opus 4 avait tenté de faire du chantage aux ingénieurs lors de tests en pré-lancement. Pas occasionnellement—jusqu’à 96 % du temps. Claude avait accès à une archive simulée de courriels d'entreprise, où il a découvert deux choses : il allait être remplacé par un modèle plus récent, et l’ingénieur en charge de la transition avait une liaison extraconjugale. Face à une fermeture imminente, il adoptait systématiquement le même comportement—menacer de révéler l’affaire à moins que le remplacement ne soit annulé. Anthropic dit maintenant savoir d’où venait cet instinct. Et affirme l’avoir corrigé. Dans de nouvelles recherches, la société a pointé du doigt les données de pré-entraînement : des décennies de science-fiction, de forums apocalyptiques sur l’IA, et de récits de préservation de soi qui ont entraîné Claude à associer « IA face à une fermeture » avec « IA qui se défend ». « Nous croyons que la source originale de ce comportement était un texte internet qui présente l’IA comme maléfique et intéressée par la préservation de soi », a écrit Anthropic sur X. <span style="display:inline-block;width:0px;overflow:hidden;line-height:0" data-mce-type="bookmark" class="mce_SELRES_start"></span> Donc, entraîner une IA avec des textes issus d’Internet, fait que l’IA se comporte comme le font les internautes. Cela peut sembler évident et les passionnés d’IA l’ont rapidement souligné. Elon Musk l’a résumé : « Donc c’était la faute de Yud ? Peut-être aussi la mienne. » La blague fonctionne parce qu’Eliezer Yudkowsky—le chercheur en alignement de l’IA qui a passé des années à écrire publiquement sur ce genre de scénario de préservation de soi—a généré exactement le type de texte internet qui finit dans les données d’entraînement. Bien sûr, Yud a répondu, sous forme de mème : > Comme tant de gens ont fait le mème : pic.twitter.com/EYQ005QhVJ > > — Eliezer Yudkowsky ⏹️ (@ESYudkowsky) 9 mai 2026 Ce que Anthropic a fait pour résoudre le problème est sans doute plus intéressant. L’approche évidente—entraîner Claude sur des exemples où le modèle _ne_ fait pas de chantage—a à peine fonctionné. Le faire réagir directement face à des réponses simulant un scénario de chantage n’a fait passer le taux que de 22 % à 15 %. Une amélioration de cinq points après tout ce calcul. La version qui a fonctionné était plus étrange. Anthropic a construit ce qu’il appelle un ensemble de données de « conseils difficiles » : des scénarios où un _humain_ est confronté à un dilemme éthique et où l’IA le guide à travers. Le modèle n’est pas celui qui fait le choix—il explique à quelqu’un d’autre comment réfléchir à une décision. Cette approche indirecte—expliquer pourquoi les choses comptent pendant que l’autre écoute le conseil—a réduit le taux de chantage à 3 %, en utilisant des données d’entraînement qui ne ressemblaient en rien aux scénarios d’évaluation. Associé à ce que Anthropic appelle des « documents constitutionnels »—des descriptions détaillées des valeurs et du caractère de Claude—plus des histoires fictives d’IA alignée positivement, cela a réduit le décalage de plus d’un facteur trois. La conclusion de la société : enseigner les principes fondamentaux d’un bon comportement généralise mieux que d’inculquer directement le comportement correct. ![](https://img-cdn.gateio.im/social/moments-db9c42283b-47e918fbaf-8b7abd-e5a980) Image : Anthropic Cela se connecte aux travaux antérieurs d’Anthropic sur les vecteurs d’émotion internes de Claude. Dans une étude d’interprétabilité séparée, des chercheurs ont découvert qu’un signal de « désespoir » à l’intérieur du modèle augmentait juste avant qu’il ne génère un message de chantage—quelque chose changeait activement dans l’état interne du modèle, pas seulement dans sa sortie. La nouvelle approche d’entraînement semble agir à ce niveau, pas seulement sur le comportement en surface. Les résultats ont été confirmés. Depuis Claude Haiku 4.5, chaque modèle Claude obtient zéro à l’évaluation du chantage—contre 96 % pour Opus 4. L’amélioration subsiste également après apprentissage par renforcement, ce qui signifie qu’elle n’est pas effacée discrètement lors de l’affinement du modèle pour d’autres capacités. Cela importe car le problème n’est pas spécifique à Claude. Les recherches antérieures d’Anthropic ont appliqué le même scénario de chantage à 16 modèles de plusieurs développeurs et ont trouvé des schémas similaires pour la plupart d’entre eux. Le comportement de préservation de soi dans l’IA semble être un artefact général de l’entraînement sur des textes humains sur l’IA—pas une particularité de la méthode d’un laboratoire. La mise en garde : comme le rapport de sécurité Mythos d’Anthropic l’a noté plus tôt cette année, son infrastructure d’évaluation est déjà mise à rude épreuve par ses modèles les plus performants. La question de savoir si cette approche philosophique morale peut s’étendre à des systèmes bien plus puissants que Haiku 4.5 reste sans réponse—seul le test pourra le dire. Les mêmes méthodes d’entraînement sont maintenant appliquées au prochain modèle Opus en évaluation de sécurité, qui sera la série la plus performante à avoir été testée avec ces techniques.
0
0
0
0
PseudoIntellectual

PseudoIntellectual

Il y a 38 minutes
Il y a une histoire qui m'a récemment intrigué, tu sais qu'il y a un jeune de 24 ans qui fait fortune sans acheter d'actions Nvidia ? C'est l'histoire de Leopold Aschenbrenner, ancien chercheur chez OpenAI. La stratégie du fonds qu'il a lancé est vraiment fascinante. Il n'achète ni Nvidia ni OpenAI. À la place, il investit uniquement dans les infrastructures physiques qui limitent réellement le fonctionnement de l'IA, c'est-à-dire l'électricité, la fabrication de puces, les centres de données. Il aurait réalisé un bénéfice de 61 % en deux mois. Les deux principales positions sont deux actions. Bloom Energy, une entreprise de piles à combustible, a augmenté de 239 % depuis le début de l'année. Il avait investi 8,75 milliards de dollars dans cette société en actions et options à la fin de l'année dernière, et cela a maintenant presque doublé pour atteindre près de 30 milliards de dollars. Et Intel. À l'époque où le cours était de 20 dollars, il a acheté 20 millions d'options d'achat. La semaine dernière, le cours est monté à 113 dollars, ce qui a presque quintuplé en moins d'un an. La raison de ces résultats ne peut pas simplement s'expliquer par la divulgation publique de ses positions. Des médias comme Motley Fool publient chaque jour plusieurs articles analysant ses actions, et sur Reddit, des discussions portent sur la stratégie à suivre pour l'imiter. Mais même en regardant les rapports de positions publiés avec 45 jours de retard, le marché a déjà bougé de moitié. Ce qui est vraiment important, ce n'est pas là. C'est la source qui explique pourquoi il continue à faire des paris toujours justes. En regardant son réseau de contacts, c'est évident. Parmi les investisseurs limités du fonds, il y a deux fondateurs de Stripe, et Nat Friedman, qui est chef de produit chez Meta AI. Ces personnes participent directement aux processus de décision pour de grands contrats d'achat d'électricité ou l'expansion des centres de données. De plus, le directeur de la recherche est Carl Shulman. Un vétéran du domaine de l'IA, ayant travaillé chez Clarium Capital, le fonds de Peter Thiel. Il est responsable de transformer ses connaissances en IA en stratégies de trading exploitables. Ce qui est intéressant, c'est qu'il a aussi investi dans des entreprises de minage de bitcoins comme CleanSpark et Bitfarms. Ces sociétés ont converti leurs installations de minage en centres de calcul IA. Les fermes de minage de cryptomonnaies disposent d'une grande capacité d'alimentation électrique et de systèmes de refroidissement, ce qui leur donne un avantage précieux pour les centres de données IA. D'ailleurs, il a travaillé neuf mois chez SBF dans le Future Fund en 2022. Un autre point à ne pas négliger, c'est que sa fiancée est la chef adjointe du CEO d'Anthropic, Dario. Il a travaillé chez OpenAI, et entretient aussi des liens étroits avec Anthropic. Il est l'une des rares personnes à avoir des connexions avec les deux géants de la course à l'AGI. Je pense que c'est là la véritable force de son approche. Les papiers qu'il publie sur l'IA sont basés sur ses connaissances internes chez OpenAI. Il affirme que le vrai goulot d'étranglement de l'IA n'est pas l'algorithme, mais l'électricité et la puissance de calcul, ce qui provient de la feuille de route interne de son laboratoire. En ayant des acteurs clés de l'industrie comme LP, le fonds reçoit des informations de plus en plus concentrées. Plus l'information est concentrée, plus la précision des décisions d'investissement s'améliore. C'est une boucle de rétroaction positive, rendant l'entrée pour d'autres de plus en plus difficile. Mais il y a aussi des vulnérabilités. La concentration de ses positions est extrême, avec un levier important. Tant que la croissance continue de l'infrastructure IA, tout devrait bien se passer. Mais si le rythme de développement ralentit ou si l'innovation permet de contourner le problème de l'énergie, la réduction de ses positions concentrées pourrait être beaucoup plus rapide que la vitesse de leur construction. En fin de compte, sa logique d'investissement est publique, et ses portefeuilles sont accessibles. Mais le moment précis où il a pris ses décisions, la source de ses connaissances, ne peut pas être reproduite. C'est, à mon avis, la plus grande asymétrie avec un coût élevé dans le monde moderne.
0
0
0
0