LITE

Prix Lumentum

LITE
€882,37
+€116,37(+15,19 %)

*Données dernièrement actualisées : 2026-05-11 19:41 (UTC+8)

Au 2026-05-11 19:41, Lumentum (LITE) est coté à €882,37, avec une capitalisation boursière totale de €59,72B, un ratio cours/bénéfices (P/E) de 252,42 et un rendement du dividende de 0,00 %. Aujourd'hui, le cours de l'action a fluctué entre €768,00 et €912,02. Le prix actuel est de 14,89 % au-dessus du plus bas de la journée et de 3,25 % en dessous du plus haut de la journée, avec un volume de trading de 6,72M. Au cours des 52 dernières semaines, LITE a évolué entre €61,42 et €912,02, et le prix actuel est à -3,25 % de son plus haut sur 52 semaines.

Statistiques clés de LITE

Clôture d’hier€758,43
Capitalisation du marché€59,72B
Volume6,72M
Ratio P/E252,42
Rendement des dividendes (TTM)0,00 %
BPA dilué (TTM)6,15
Revenu net (exercice fiscal)€22,00M
Revenus (exercice annuel)€1,39B
Date de gains2026-08-11
Estimation BPS2,95
Estimation des revenus€833,88M
Actions en circulation78,74M
Bêta (1 an)1.533

À propos de LITE

Lumentum Holdings Inc. fabrique et vend des produits optiques et photoniques en Amérique, en Asie-Pacifique, en Europe, au Moyen-Orient et en Afrique. La société opère dans deux segments : Communications Optiques (OpComms) et Lasers Commercials (Lasers). Le segment OpComms propose des composants, modules et sous-systèmes permettant la transmission et le transport de vidéo, audio et données via des câbles à fibre optique à haute capacité. Il offre des transpondeurs, transceivers et modules émetteurs tunables ; lasers, récepteurs et modulateurs tunables ; des produits de transport, tels que des multiplexeurs reconfigurables, amplificateurs et moniteurs de canaux optiques, ainsi que des composants, notamment des pompes multi-mode, Raman et à 980 nm ; et des commutateurs, atténuateurs, photodétecteurs, filtres d'aplatissement du gain, isolateurs, filtres de multiplexage en longueur d'onde, réseaux de diffraction à guide d'ondes en grappe, multiplexeurs/démultiplexeurs et modules passifs intégrés. Ce segment fournit également le Super Transport Blade, qui intègre les fonctions de transport optique dans une seule lame ; des lasers à émission verticale par surface ; des lasers modulés directement et par absorption électro-optique ; et des sources d’éclairage laser pour les systèmes de détection 3D. Il sert des clients dans les marchés des télécommunications, des communications de données, ainsi que des marchés grand public et industriels. Le segment Lasers Commercials propose des lasers à solide d’état pompés par diode, à fibre, à diode, à diode directe et à gaz, destinés aux applications des fabricants d’équipements d’origine. Il sert des clients dans des marchés et applications tels que la transformation de tôles, la fabrication générale, la biotechnologie, la graphisme et l’imagerie, la télédétection et l’usinage de précision. Lumentum Holdings Inc. a été constituée en 2015 et a son siège social à San Jose, en Californie.
SecteurTechnologie
IndustrieÉquipement de communication
PDGMichael E. Hurlston
Siège socialSan Jose,CA,US
Effectifs (exercice annuel)10,56K
Revenu moyen (1 an)€132,33K
Revenu net par employé€2,08K

En savoir plus sur Lumentum (LITE)

FAQ de Lumentum (LITE)

Quel est le cours de l'action Lumentum (LITE) aujourd'hui ?

x
Lumentum (LITE) s’échange actuellement à €882,37, avec une variation sur 24 h de +15,19 %. La fourchette de cotation sur 52 semaines est de €61,42 à €912,02.

Quels sont les prix le plus haut et le plus bas sur 52 semaines pour Lumentum (LITE) ?

x

Quel est le ratio cours/bénéfice (P/E) de Lumentum (LITE) ? Que signifie-t-il ?

x

Quelle est la capitalisation boursière de Lumentum (LITE) ?

x

Quel est le bénéfice par action (EPS) trimestriel le plus récent pour Lumentum (LITE) ?

x

Faut-il acheter ou vendre Lumentum (LITE) maintenant ?

x

Quels sont les facteurs pouvant influencer le cours de l’action Lumentum (LITE) ?

x

Comment acheter l'action Lumentum (LITE) ?

x

Avertissement sur les risques

Le marché boursier comporte un niveau élevé de risque et de volatilité des prix. La valeur de votre investissement peut augmenter ou diminuer, et vous pourriez ne pas récupérer le montant investi au complet. Les performances passées ne constituent pas un indicateur fiable des résultats futurs. Avant de prendre toute décision d’investissement, vous devez évaluer soigneusement votre expérience en matière d’investissement, votre situation financière, vos objectifs d’investissement et votre tolérance au risque, et effectuer vos propres recherches. Le cas échéant, consultez un conseiller financier indépendant.

Avertissement

Le contenu de cette page est fourni à titre informatif uniquement et ne constitue pas un conseil en investissement, un conseil financier ou une recommandation de trading. Gate ne pourra être tenu responsable de toute perte ou dommage résultant de telles décisions financières. De plus, veuillez noter que Gate pourrait ne pas être en mesure de fournir un service complet dans certains marchés et juridictions, notamment, mais sans s’y limiter, les États-Unis d’Amérique, le Canada, l’Iran et Cuba. Pour plus d’informations sur les zones restreintes, veuillez consulter les conditions d’utilisation.

Autres Marchés de Trading

Lumentum (LITE) Dernières Actualités

2026-05-08 01:09Google Gemini 3.1 Flash-Lite est officiellement lancé : le prix d’entrée est 75 % moins élevé que celui de Claude 4.5 Haiku, avec un score GPQA de 86,9 %D’après Beating, Google Gemini 3.1 Flash-Lite est passé de la phase de préversion à la disponibilité générale (GA) le 8 mai, devenant le modèle le moins cher et le plus rapide de la série Gemini 3. Le prix en entrée est fixé à 0,25 $ par million de tokens et en sortie à 1,50 $ par million de tokens — les coûts d’entrée sont 75% moins élevés que ceux de Claude 4.5 Haiku (1,00 $) et la sortie est 70% moins chère (5,00 $). Le modèle dispose d’une fenêtre de contexte de 1 million de tokens et atteint un débit de 363 tokens par seconde, soit 45% plus rapide que son prédécesseur Gemini 2.5 Flash. Les références de performance affichent GPQA Diamond (raisonnement scientifique au niveau licence/graduate) à 86,9%, dépassant Claude 4.5 Haiku (73,0%) et GPT-5 mini (82,3%). MMMU-Pro (raisonnement multimodal) atteint 76,8%. Les premiers utilisateurs incluent la plateforme de service client Gladly, qui indique une réduction de 60% des coûts et un taux de réussite de 99,6% sur des charges de travail en production, ainsi que JetBrains, qui intègre Flash-Lite dans des outils d’assistance de l’IDE.2026-04-22 14:05Yifan Zhang divulgue les spécifications techniques complètes de DeepSeek V4 : 1,6T paramètres, 384 experts avec 6 activationsMessage de Gate News, 22 avril — Le doctorant de Princeton Yifan Zhang a divulgué sur X les spécifications techniques complètes de DeepSeek V4, après un aperçu le 19 avril. V4 affiche 1,6 trillion de paramètres au total et une variante légère, V4-Lite, avec 285 milliards de paramètres. Le modèle emploie le mécanisme d’attention DSA2, qui combine l’ancienne attention DSA (DeepSeek Sparse Attention) de DeepSeek issue de la V3.2 et la NSA (Native Sparse Attention) avec des embeddings de tête de dimension 512, associée à l’attention à requêtes multiples clairsemées (MQA) et à l’attention à fenêtre glissante (SWA). La couche MoE (Mixture of Experts) contient 384 experts avec 6 experts activés par passe avant, en utilisant le méga-kernel MoE fusionné. Les connexions résiduelles utilisent l’architecture Hyper-Connections. Les détails d’entraînement révélés pour la première fois incluent l’utilisation de l’optimiseur Muon (applying Newton-Schulz orthogonalization to momentum updates), une fenêtre de contexte de préentraînement de 32K tokens, et GRPO (Group Relative Policy Optimization) avec correction par divergence KL pendant l’apprentissage par renforcement. La fenêtre de contexte finale s’étend jusqu’à 1 million de tokens. Le modèle est text-only. Zhang n’est pas employé par DeepSeek, et l’entreprise n’a fait aucun commentaire officiel sur les informations divulguées.2026-03-16 03:37OpenAI, Baidu et Tencent Cloud parrainent le cadre Open Source OpenClaw pour les agents IA, Dave Morin, fondateur de Path, devient premier président du conseil d'administration de la fondationGate News, le 16 mars, indique que la page GitHub Sponsors du cadre open source d'agent IA OpenClaw montre que OpenAI et Baidu figurent en tête des sponsors, tandis que Tencent Light Cloud apparaît parmi les 144 sponsors actifs, avec 65 autres sponsors historiques pour le projet. Le bureau d'open source de Baidu a officiellement annoncé le 13 mars sur GitHub qu'il sponsorise OpenClaw, devenant ainsi la première grande entreprise technologique chinoise à soutenir ce projet via la plateforme GitHub Sponsors. Baidu prévoit également d'intégrer ses capacités d'analyse de documents PaddleOCR dans l'écosystème OpenClaw sous forme de compétences. Tencent Light Cloud a rejoint les sponsors le 15 mars. Auparavant, la controverse autour du transfert de compétences de Tencent SkillHub avait tendu les relations entre les deux parties. Le fondateur d'OpenClaw, Peter Steinberger, a commenté en partageant un message de sponsoring sur Discord : « J'aime les bonnes histoires de rédemption ». Le sponsoring par OpenAI a coïncidé avec l'arrivée de Steinberger chez OpenAI en février. Le projet OpenClaw est en train de passer à une fondation indépendante, et OpenAI continuera à fournir un soutien financier. Parmi les sponsors individuels, Dave Morin, fondateur de l'application sociale Path, ancien cadre de Facebook et fondateur de l'investisseur Slow Ventures, est devenu le premier membre du conseil d'administration de l'OpenClaw Foundation. Il avait également co-organisé l'événement ClawCon en février. Romain Huet, responsable de l'expérience développeur chez OpenAI, apparaît également sur la liste des sponsors en tant que particulier ; il avait été interviewé par le podcast Builders Unscripted avec Steinberger. La page de sponsoring indique clairement que le fondateur Peter Steinberger ne conserve aucun fonds de sponsoring, ceux-ci étant entièrement réinvestis dans la communauté, pour récompenser les contributeurs qui soumettent du code ou corrigent des bugs, ainsi que pour soutenir les projets open source en amont dont dépend le projet. Les niveaux de sponsoring varient de 5 à 500 dollars par mois, avec huit niveaux au total.2026-03-15 08:05Tencent Cloud Léger devient sponsor d'OpenClaw, après BaiduGate News annonce qu’au 15 mars, selon la page Github d’OpenClaw, Tencent Light Cloud est devenu un sponsor d’OpenClaw, après Baidu. Auparavant, le fondateur d’OpenClaw avait indiqué que le téléchargement massif de données de ClawHub par Tencent avait entraîné une augmentation des coûts serveur. En réponse, le compte officiel de Tencent AI a déclaré publiquement que SkillHub était défini comme « une plateforme de compétences localisée construite sur l’écosystème OpenClaw », visant à offrir une meilleure disponibilité et rapidité aux utilisateurs en Chine. Tencent a également indiqué que les membres de l’équipe sont des contributeurs actifs au code, ayant soumis du code et des PR, et qu’ils souhaitent devenir de meilleurs sponsors.2026-03-10 06:12Vitalik Buterin propose l'idée de « staking Ethereum en un clic » : DVT-lite pourrait réduire la barrière à l'entrée pour les institutionsLe 10 mars, il a été annoncé que Vitalik Buterin, co-fondateur d’Ethereum, a récemment révélé que la Fondation Ethereum avait réussi à staker environ 72 000 ETH en février 2026 en utilisant une technologie simplifiée de validateurs distribués appelée DVT-lite. Cette solution expérimentale vise à réduire considérablement la barrière technique pour la participation institutionnelle au staking d’Ethereum et à explorer un mode de validation distribué plus simple. Lors du sommet X, Buterin a déclaré que l’objectif de DVT-lite est de permettre aux utilisateurs institutionnels de déployer le staking d’Ethereum via une opération en un clic. Il a expliqué que, en sélectionnant simplement l’ordinateur exécutant le nœud et en créant un fichier de configuration unifié, le système peut automatiquement configurer le nœud de validation, permettant à plusieurs serveurs de partager la même clé de validateur et de fonctionner en collaboration. Comparé au mode de staking traditionnel à un seul nœud, cette solution trouve un équilibre entre stabilité et complexité opérationnelle. Dans le staking à nœud unique, si le serveur tombe en panne, si le réseau est interrompu ou s’il subit une attaque, le validateur risque une pénalité. Bien que la technologie complète DVT (validation distribuée) offre une sécurité accrue, son déploiement est complexe et coûteux en maintenance. DVT-lite permet à plusieurs machines de partager la même clé de validation ; en cas de défaillance d’un nœud, les autres peuvent rapidement prendre le relais, réduisant ainsi le risque d’arrêt et de pénalité. La Fondation Ethereum a lancé fin février un programme de staking basé sur cette technologie. Les actifs concernés ont déjà rejoint la file d’attente des validateurs et devraient être entièrement stakés d’ici le 19 mars. Buterin a également indiqué qu’à l’avenir, le déploiement automatisé pourrait être facilité via des conteneurs Docker ou des images Nix, permettant aux institutions ou aux investisseurs professionnels de faire fonctionner les nœuds de validation de manière extrêmement simple. De plus, Buterin estime que considérer l’infrastructure blockchain comme un système réservé aux experts va à l’encontre du principe de décentralisation. En abaissant la barrière technique du staking, il est possible d’élargir le groupe d’opérateurs de nœuds, renforçant ainsi la décentralisation du réseau Ethereum. Malgré la pression sur le prix du marché, la demande de staking d’Ethereum reste élevée. Les données montrent qu’environ 3,2 millions d’ETH attendent dans la file d’attente pour être stakés, avec un délai d’attente estimé à environ 55 jours, tandis que seulement 29 000 ETH sont en file d’attente de retrait. La quantité totale d’ETH stakés sur le réseau atteint actuellement environ 37,5 millions, d’une valeur d’environ 76,5 milliards de dollars au prix actuel, représentant environ 31 % de l’offre totale. Les observateurs du secteur pensent que si la technologie DVT-lite et d’autres innovations deviennent matures et se répandent, la participation institutionnelle au staking, le déploiement de nœuds de validation distribués et la sécurité globale du réseau Ethereum pourraient connaître de nouvelles évolutions.

Publications populaires sur Lumentum (LITE)

SadMoneyMeow

SadMoneyMeow

Il y a 1 heures
Aujourd'hui, SenseTime lance officiellement la nouvelle génération de modèles d'agents intelligents multimodaux légers — **SenseNova SenseNova 6.7 Flash-Lite**, tout en **ouvrant gratuitement pour une durée limitée le Plan Token SenseNova**, avec toutes les compétences bureautiques SenseNova-Skills en open source sur GitHub.   Connectez-vous dès maintenant pour recevoir **1500 appels gratuits toutes les 5 heures**, rendant votre travail intelligent plus rapide, meilleur et plus économique.  ** SenseNova 6.7 Flash-Lite : conçu pour le « flux de travail », consommation de tokens réduite de 60 %**   Les modèles d'agents traditionnels utilisent une conception « langage + visuel » combinée, où la composante visuelle est généralement seulement un complément au texte, incapable de participer en profondeur aux cycles de décision et de raisonnement clés. Cela entraîne une perte d'information lors de la « traduction » et une consommation élevée de tokens. **  SenseNova 6.7 Flash-Lite révolutionne complètement cette chaîne**, conçu pour le « flux de travail du monde réel », utilisant une architecture multimodale native, capable, comme un humain, de « comprendre » directement la mise en page complexe de pages web, la structure de documents et les graphiques financiers, réalisant une intégration « voir, penser, faire », ce qui augmente considérablement le taux de réussite des tâches longues et complexes telles que l’analyse de données, la recherche approfondie, la génération de PPT, etc.**   En supprimant la couche intermédiaire de conversion visuelle en texte, il peut réaliser une avancée exponentielle des capacités de l'agent avec moins de paramètres, obtenant plusieurs SOTA au niveau des benchmarks d'agents intelligents autoritaires. Il réduit également considérablement la consommation de tokens lors du raisonnement, avec une baisse de 60 % par rapport à un agent purement textuel dans des scénarios de recherche d'information. Il peut aussi fournir des retours en millisecondes, mieux adapté aux environnements de production à haute fréquence d’interaction.  Détails techniques de SenseNova 6.7 Flash-Lite : **  Offre gratuite limitée, le Plan Token SenseNova arrive !**   Le Plan Token SenseNova est officiellement lancé, avec une promotion gratuite limitée dans le temps. Les développeurs peuvent profiter, durant le premier mois, d’un quota d’appels sans seuil de **1500 appels toutes les 5 heures**, pour une expérience AI ultra-rapide sans coût.   Le Plan Token SenseNova est alimenté par la capacité avancée des modèles de SenseTime : ** • Compétences bureautiques complètes (SenseNova-Skills) :** intégration totale de la série SenseNova-Skills pour faire face à des scénarios concrets tels que l’analyse massive de données et l’automatisation bureautique. ** • SenseNova 6.7 Flash-Lite :** doté de capacités d’agent de pointe, conçu pour l’analyse de données complexes et la planification de tâches, parfaitement adapté aux besoins de bureautique à haute fréquence et haute concurrence. ** • SenseNova U1 Fast :** version accélérée de SenseNova U1, dédiée à la génération d’infographies.   Grâce à une **combinaison de modèles sélectionnés plus efficace et à une capacité accrue de tokens**, nous résolvons complètement l’anxiété liée aux coûts pour les développeurs et les entreprises, permettant aux « longues tâches » de s’exécuter en toute confiance, assurant une opération stable des projets.  ** • Postulez dès maintenant :** visitez pour demander l’accès gratuit limité. À l’avenir, nous lancerons également des versions Lite, Pro et autres, pour répondre à la diversité des besoins, du créateur individuel aux grandes entreprises.  ** • Prêt à l’emploi :** pas besoin de configuration complexe, les développeurs peuvent rapidement intégrer des compétences AI bureautiques professionnelles pour un développement agile. **  Avec SenseNova-Skills, activez en un clic une automatisation complète du travail**   Pour réaliser un flux de travail complet, une collaboration profonde entre le « cadre d’agents » et les « compétences professionnelles (Skills) » est indispensable.   Actuellement, SenseTime a encapsulé les capacités clés de la série SenseNova SenseNova en **SenseNova-Skills**. Ces compétences couvrent la génération d’infographies, la création de PPT, l’analyse de données et la recherche approfondie dans des scénarios bureautiques à haute fréquence, et supportent nativement des cadres d’agents tels qu’OpenClaw et Hermes Agent. Les utilisateurs peuvent les invoquer indépendamment selon leurs besoins ou les combiner pour former des flux de travail complexes de bout en bout. **  Comment construire rapidement votre agent intelligent ?** **  • Chemin recommandé (déploiement en un clic) :** utilisez le package Agent Pack Hermes Agent ou le cadre OpenClaw et tous les plugins Skills, combinés au plan gratuit Token de la plateforme SenseNova, pour une utilisation prête à l’emploi.   • Intégration autonome (extension flexible) : si vous utilisez un autre cadre d’agent, vous pouvez directement installer les composants Skills vous-même. **  Cas pratique : de l’insight data à la livraison professionnelle**   SenseNova 6.7 Flash-Lite ne se limite pas au raisonnement, il excelle aussi dans la production de livrables de haute qualité. Il peut réaliser une boucle complète allant de l’analyse de documents complexes à la sortie structurée. **  Cas 1 : Analyse de 900 000 lignes de données de vente sur 36 mois pour une chaîne de magasins**   Face à une grande entreprise de légumes avec 3 ans de données de vente, près de 900 000 lignes, SenseNova 6.7 Flash-Lite suit la chaîne « traitement des données → analyse → visualisation → synthèse → recommandations d’optimisation » pour une analyse complète, produisant un rapport d’analyse opérationnelle et de soutien à la décision. Dans des tâches complexes, il démontre une forte capacité de raisonnement logique et de correction d’erreurs : **  • Réflexion approfondie et observation :** le modèle ne se contente pas de sauter directement à la statistique, il commence par une « audit des données ». Il détecte avec acuité des valeurs aberrantes dans le prix de vente. Après réflexion, il juge que ces valeurs extrêmes ne sont pas des erreurs, mais liées à des promotions ou des produits haut de gamme, et décide de les conserver pour refléter la volatilité réelle du marché.   **  • Exploration multidimensionnelle :** en analysant la marge brute, le modèle découvre qu’en mai 2022, les piments ont enregistré une marge négative grave. Sur cette base, il explore davantage la chaîne d’approvisionnement, diagnostiquant finalement un problème de « contrôle des coûts d’achat et de fixation des prix de vente sans coordination ». **  • Livraison en boucle fermée :** sur la base de ces insights, le modèle propose activement cinq recommandations précises telles que « établir un mécanisme de tarification dynamique » et « ajuster la structure des catégories », aidant directement la direction à prendre des décisions. **  Cas 2 : Rapport d’étude sur l’industrie de l’intelligence incarnée**   Dans une recherche approfondie, SenseNova 6.7 Flash-Lite a réalisé de manière autonome une **étude de marché verticale de 8 chapitres** sur l’état actuel du secteur : **  • Pensée macro à micro :** le modèle définit d’abord 2025-2026 comme « année de la commercialisation », une hypothèse clé. Pour la vérifier, il recherche et compare de manière autonome les dernières gammes de produits et volumes de livraison des principaux fabricants (comme AGIBOT, Tesla, Unitree, etc.) en Chine et à l’étranger.   **  • Perception en environnement bruité :** face à un flux massif d’informations de marché, le modèle extrait avec précision des logiques clés telles que « croissance annuelle du marché des robots humanoïdes » et « taux de localisation des composants clés ».     **• Extension visuelle :** basé sur l’observation de la structure des coûts, le modèle génère automatiquement des diagrammes en camembert et des schémas de chaîne industrielle, transformant des données arides en livrables professionnels faciles à lire.     **  Cas 3 : Guide complet du parcours de consultation hospitalière**   Pour répondre aux besoins spécifiques des populations sous « fracture numérique », le modèle, avec sa **structure multimodale native**, réalise une génération automatique de contenu du récit à la mise en page, produisant un **guide complet du parcours de consultation hospitalière** : **  • Identification de l’intention utilisateur :** le modèle comprend profondément la particularité des publics « personnes âgées et adolescents », et privilégie un ton narratif « chaleureux » lors de la conception. **  • Alignement d’éléments multimodaux :** il génère non seulement les six étapes claires du parcours (prise de rendez-vous, triage, consultation, etc.), mais associe aussi des éléments visuels cohérents pour chaque étape. Par exemple, sur la page « guide intelligent », il configure automatiquement des illustrations pour « borne d’enregistrement automatique » et « comptoir d’accueil », réduisant considérablement la barrière de compréhension pour le lecteur.   **  • Livraison stable :** dans la génération d’un PPT de 10 pages, le modèle maintient un style uniforme et une cohérence des éléments, réalisant une « livraison immédiate » et permettant aux utilisateurs de faire des ajustements secondaires selon le contexte hospitalier. **  Autonomisation pour tous les scénarios, prêt à l’emploi**   SenseNova 6.7 Flash-Lite supporte désormais les flux de travail clés dans les secteurs financier, manufacturier, médical, éducatif, etc.   Il possède cinq capacités centrales, apportant une **fiabilité et une stabilité d’exécution accrues** pour les flux de travail réels, redéfinissant le modèle d’agent multimodal léger. **  • Décision d’action dynamique :** évalue précisément la profondeur de raisonnement et l’efficacité d’exécution, choisissant le moment optimal pour agir tout en assurant la complétude de la tâche. **  • Orchestration autonome de la chaîne d’outils :** face à des outils complexes, le modèle planifie et configure automatiquement l’ordre d’appel et les paramètres, assurant une transition fluide entre les outils. **  • Perception en environnement bruité :** extrait rapidement la logique clé des sources d’informations floues, incomplètes ou bruitées, pour construire une compréhension claire de la tâche. **  • Auto-correction et récupération :** en cas de déviation lors de l’exécution, identifie et diagnostique en temps réel la cause du problème, corrige activement la stratégie pour atteindre l’objectif. **  • Cohérence de mémoire à long terme :** dans des tâches longues ou multi-étapes, maintient en permanence l’intention initiale de l’utilisateur, évitant l’oubli du contexte. **  Comment accéder rapidement ?** **  1. Petite mascotte bureautique :** si vous souhaitez une utilisation sans configuration, essayez gratuitement sur office.xiaohuanxiong.com. **  2. Compétences d’agents SenseNova-Skills :** couvrant divers scénarios bureautiques fréquents, ces compétences sont open source sur GitHub. **  3. Support pour développeurs :** compatible avec l’API OpenAI, supporte une intégration fluide avec les principaux cadres d’agents. (Responsable : Jiao Yue)    【Avertissement】Cet article reflète uniquement le point de vue de l’auteur tiers, et ne représente pas la position de Hexun. Les investisseurs agissent à leurs risques. 【Publicité】Cet article n’engage que l’opinion de son auteur, et n’est pas lié à Hexun. Hexun reste neutre quant aux déclarations et opinions exprimées dans le texte, ne garantissant ni leur exactitude, ni leur fiabilité, ni leur exhaustivité. Les lecteurs doivent s’en servir uniquement comme référence et en assumer la responsabilité complète. Courriel : news_center@staff.hexun.com
0
0
0
0