OPENAI

Precio en OpenAI

Cerrado
OPENAI
€0
+€0(0,00%)
Sin datos

*Datos actualizados por última vez: 2026-05-12 02:42 (UTC+8)

A fecha de 2026-05-12 02:42, OpenAI (OPENAI) tiene un precio de €0, con una capitalización de mercado total de --, un ratio P/E de 0,00 y un rendimiento por dividendo de 0,00%. Hoy, el precio de la acción ha oscilado entre €0 y €0. El precio actual está 0,00% por encima del mínimo del día y 0,00% por debajo del máximo del día, con un volumen de trading de --. Durante las últimas 52 semanas, OPENAI ha cotizado entre €0 y €0, y el precio actual está a 0,00% del máximo de las últimas 52 semanas.

Estadísticas clave de OPENAI

Ratio P/E0,00
Rendimiento por dividendo (últimos doce meses)0,00%
Acciones en circulación0,00

Más información sobre OpenAI (OPENAI)

Preguntas frecuentes sobre OpenAI (OPENAI)

¿A qué precio cotiza hoy OpenAI (OPENAI) hoy?

x
OpenAI (OPENAI) cotiza actualmente a €0, con una variación en 24 h del 0,00%. El rango de trading de 52 semanas es de €0 a €0.

¿Cuáles son los precios máximo y mínimo de 52 semanas para OpenAI (OPENAI)?

x

¿Cuál es el ratio precio-beneficio (P/E) de OpenAI (OPENAI) y qué indica?

x

¿Cuál es la capitalización de mercado de OpenAI (OPENAI)?

x

¿Cuál es el beneficio por acción (BPA) del trimestre más reciente de OpenAI (OPENAI)?

x

¿Deberías comprar o vender OpenAI (OPENAI) ahora?

x

¿Qué factores pueden afectar el precio de las acciones de OpenAI (OPENAI)?

x

¿Cómo comprar acciones de OpenAI (OPENAI)?

x

Aviso de riesgo

El mercado de valores implica un alto nivel de riesgo y volatilidad en los precios. El valor de tu inversión puede subir o bajar, y es posible que no puedas recuperar la totalidad del importe invertido. El rendimiento pasado no es un indicador fiable de los resultados futuros. Antes de tomar cualquier decisión de inversión, debes evaluar cuidadosamente tu experiencia, situación financiera, objetivos de inversión y tolerancia al riesgo, además de realizar tu propia investigación. Si lo consideras necesario, consulta con un asesor financiero independiente.

Aviso legal

El contenido de esta página se proporciona únicamente con fines informativos y no constituye asesoramiento de inversión o financiero ni recomendaciones de trading. Gate no se hará responsable de ninguna pérdida o daño derivado de dichas decisiones financieras. Además, ten en cuenta que es posible que Gate no pueda ofrecer todos sus servicios en determinados mercados y jurisdicciones, entre los que se incluyen, entre otros, los Estados Unidos de América, Canadá, Irán y Cuba. Para obtener más información sobre las ubicaciones restringidas, consulta el Acuerdo de usuario.

Otros mercados de trading

Últimas notícias sobre OpenAI (OPENAI)

2026-05-12 01:19El acuerdo Microsoft-OpenAI limita la participación en los ingresos en 38 mil millones de dólares hasta 2030, según el último acuerdoSegún The Information, el 12 de mayo, el último acuerdo de OpenAI con Microsoft establece un tope de reparto de ingresos de 38 mil millones de dólares, mientras que se proyecta que OpenAI ahorrará 97 mil millones de dólares hasta 2030 bajo los nuevos términos.2026-05-12 01:17El cofundador de OpenAI, Ilya Sutskever, declara sobre la destitución de Altman y mantiene una participación $7B Beating, el cofundador de OpenAI y ex director científico Ilya Sutskever, testificó el lunes en el caso Musk v. OpenAI, revelando detalles de su impulso por destituir al CEO Sam Altman. Sutskever dijo que pasó aproximadamente un año reuniendo pruebas del patrón de “deshonestidad persistente” de Altman, incluyendo incitar conflictos entre ejecutivos. Preparó un memorando de 52 páginas a solicitud del consejo y mantuvo “discusiones prolongadas” con la entonces CTO Mira Murati sobre reemplazar a Altman antes del cese de noviembre de 2023, que describió como un “último recurso”. Sutskever reveló que actualmente posee capital de OpenAI por valor de aproximadamente 7 mil millones de dólares (frente a 5 mil millones en noviembre de 2025), lo que lo convierte en uno de los mayores accionistas individuales conocidos. También confirmó por primera vez que, durante la breve destitución de Altman, los demás miembros del consejo exploraron una propuesta de fusión con la competidora Anthropic para que Anthropic asumiera el liderazgo de OpenAI, aunque él no estaba “entusiasmado” con el acuerdo. El juicio entra en alegatos finales el jueves, y se espera que Altman testifique el martes.2026-05-12 00:45Thinking Machines lanza un modelo de interacción con una respuesta de 200 ms, superando a GPT-Realtime-2.0Según Beating, Thinking Machines, el laboratorio fundado por la ex CTO de OpenAI Mira Murati, lanzó una vista previa de investigación de su modelo de Interacción, con procesamiento nativo de audio y video en tiempo real y respuestas de micro-turn de 200 milisegundos. El modelo permite escuchar, ver y hablar de forma simultánea, mientras admite interrupciones en tiempo real por parte del usuario. El modelo TML-Interaction-Small utiliza una arquitectura MoE de 276 mil millones de parámetros, con 12 mil millones de parámetros activados por inferencia. Los datos oficiales muestran una latencia de cambio de turno de voz de 0,40 segundos y una puntuación FD-bench V1.5 de 77,8, ambas superando a GPT-Realtime-2.0 y a Gemini 3.1 Flash Live. Se planea un acceso limitado a la vista previa para los próximos meses.2026-05-11 22:55OpenAI abre GPT-5.5-Cyber a las instituciones de la UE el 11 de mayo; Anthropic se resiste con MythosSegún Glontech, el 11 de mayo, OpenAI anunció que concederá a las instituciones de la UE acceso a GPT-5.5-Cyber, su última variante de modelo de ciberseguridad. El acceso se ampliará a socios europeos, incluidas empresas, agencias gubernamentales, responsables de ciberseguridad y la Oficina de IA de la UE, con disponibilidad limitada de vista previa para equipos de ciberseguridad verificados. Mientras tanto, Anthropic sigue siendo reservado sobre abrir su modelo Mythos a la región.2026-05-11 16:29El CEO de Microsoft, Nadella, declara en el juicio de Musk contra OpenAI; Altman el lunesSegún CNBC, el CEO de Microsoft, Satya Nadella, declaró en un tribunal federal en Oakland, California, el lunes 12 de mayo, en la demanda en curso de Musk contra OpenAI y el CEO Sam Altman. Microsoft también figura como demandado en el caso. Musk alega que Microsoft “ayudó y se confabuló” con OpenAI al incumplir sus obligaciones con su confianza benéfica. Los documentos judiciales muestran que Microsoft ha invertido más de 13 mil millones de dólares en OpenAI desde 2019, incluida una inversión de 10 mil millones de dólares en 2023. Musk sostiene que esta inversión marcó un punto de inflexión clave cuando OpenAI se apartó de su misión sin fines de lucro. A la dirección de OpenAI se le ha acusado de beneficiarse de la estructura benéfica mientras seguía vías comerciales.

Publicaciones destacadas de OpenAI (OPENAI)

TestnetScholar

TestnetScholar

Hace 24 minutos
Alrededor de 75 empleados de OpenAI se convirtieron en decamillonarios en una sola transacción. Cada uno vendió la cantidad máxima permitida, $30M valor de acciones, en una oferta de compra que permitió a más de 600 empleados deshacerse colectivamente de aproximadamente 6.600 millones de dólares en acciones. Las mecánicas de un pago de 6.6 mil millones de dólares --------------------------------------------- La oferta de compra tuvo lugar en octubre de 2025, cuando la valoración de OpenAI se había disparado a aproximadamente 150 mil millones de dólares. Esa cifra representó casi el doble desde $86B principios del mismo año, una trayectoria que hizo que la venta de acciones por parte de los empleados fuera extraordinariamente lucrativa. Las ofertas de compra como esta sirven a un propósito específico para las empresas privadas. Les dan a los empleados una forma de convertir la riqueza en papel en dinero real sin esperar una oferta pública inicial (OPI). El límite de $30M por persona fue diseñado para evitar que un solo participante venda una proporción desproporcionada de acciones a compradores secundarios. Alrededor de 75 empleados alcanzaron ese límite, lo que significa que una parte significativa de la fuerza laboral de OpenAI ahora posee liquidez que cambiará sus vidas. La conexión con las criptomonedas: Worldcoin, tokenización y cambios en el talento ------------------------------------------------------------- El CEO de OpenAI, Sam Altman, también es la fuerza impulsora detrás de Worldcoin, el proyecto de identidad biométrica basado en el token WLD. WLD se cotizaba aproximadamente a $5.20 el 10 de mayo de 2026, sin picos de precio importantes directamente relacionados con la oferta de compra en sí. Más allá de Worldcoin, la oferta de compra ha generado conversaciones más amplias sobre la participación privada tokenizada. Se informa que Robinhood ha estado explorando acciones tokenizadas asociadas con OpenAI, una medida que permitiría a los inversores minoristas acceder a acciones pre-OPI a través de instrumentos basados en blockchain. En marzo de 2026, la firma del inversor en criptomonedas Tom Lee, Eightco, aumentó su inversión en OpenAI a 40 millones de dólares, citando un sentimiento alcista hacia las sinergias entre IA y criptomonedas. Lee también fue cuidadoso al señalar los riesgos regulatorios asociados con la tokenización de acciones de empresas privadas. OpenAI lanzó una unidad empresarial $4B el 10 de mayo de 2026, destinada a integrar soluciones de IA en las empresas. OpenAI también ha estado trabajando con firmas como Paradigm para mejorar la seguridad de los contratos inteligentes, una asociación que se sitúa directamente en la intersección de IA y finanzas descentralizadas. Qué significa esto para los inversores ----------------------------- La oferta de compra no movió los precios de los tokens de manera significativa. WLD no tuvo picos. Bitcoin no se inmutó. El impacto directo en el mercado de las criptomonedas fue prácticamente nulo. El ángulo de la tokenización merece una observación cercana. Si plataformas como Robinhood logran ofrecer acciones tokenizadas de OpenAI, esto crearía una plantilla para otras empresas privadas de alto valor. El riesgo es que los reguladores decidan que todo esto se parece demasiado a ofertas de valores no registradas y lo detengan antes de que escale. **Divulgación:** Este artículo fue editado por el Equipo Editorial. Para más información sobre cómo creamos y revisamos contenido, consulte nuestra Política Editorial.
0
0
0
0
GateBlog

GateBlog

Hace 44 minutos
Al invocar grandes modelos de lenguaje, una percepción común es elegir el modelo con la puntuación más alta en la lista y esperar que maneje bien todas las tareas. La realidad es que diferentes tareas como traducción, generación de código, resumen de textos largos, análisis de sentimientos y diálogos multironda requieren capacidades completamente distintas del modelo. Usar un modelo insignia para decir simplemente “Hola” es como usar una supercomputadora para abrir un bloc de notas: el resultado es igual, pero el costo se multiplica por decenas. GateRouter resuelve este problema mediante una lógica inteligente de cambio de modelos. Usa un único punto de API unificado para conectar más de 40 modelos grandes principales, y según el tipo de tarea, complejidad, preferencia de latencia y restricciones de costo en cada solicitud, selecciona automáticamente el modelo más adecuado. A continuación, exploramos la lógica detrás de esta decisión de enrutamiento. ![](https://img-cdn.gateio.im/social/moments-7df6075246686916547289b7e9779e00) ## ¿Por qué diferentes tareas necesitan diferentes modelos? Las diferencias en capacidades de los grandes modelos de lenguaje se reflejan en múltiples dimensiones. Algunos destacan en razonamiento complejo y seguimiento de instrucciones en múltiples pasos, pero su respuesta es más lenta y su costo por llamada es alto. Otros son ligeros y rápidos en inferencia, ideales para escenarios de alta concurrencia y baja latencia. Además, algunos han sido optimizados específicamente en áreas particulares (como código, traducción multilingüe, matemáticas), mostrando capacidades superiores en esas verticales en comparación con modelos generales. Tomando ejemplos de escenarios reales: - La conversación en tiempo real y atención al cliente valoran la latencia inicial y el rendimiento, pudiendo tolerar ligeras diferencias de estilo; - La generación de informes profundos requiere ventanas de contexto largas, coherencia lógica y precisión factual, sin una exigencia alta en velocidad de respuesta; - La extracción de datos en masa y tareas de clasificación de etiquetas, con escala enorme, necesitan modelos con la mejor relación costo-eficiencia para mantener costos controlados; - La autocompletación y explicación de código requieren que el modelo entienda la estructura sintáctica, priorizando la precisión técnica. Un solo modelo difícilmente puede optimizar en todos estos aspectos simultáneamente. Asignar manualmente diferentes tareas a diferentes modelos genera problemas como múltiples claves API, diferentes esquemas de facturación, formatos de llamada inconsistentes y una carga operativa compleja. Esto motiva directamente la creación de un sistema de enrutamiento inteligente. ## ¿Cómo selecciona automáticamente el enrutador el modelo óptimo de LLM? El enrutamiento inteligente de GateRouter, en cada solicitud, analiza en tiempo real múltiples señales para decidir qué modelo usar. Este proceso es completamente transparente para el desarrollador: la llamada sigue la especificación compatible con el SDK de OpenAI, sin que sea necesario entender la lógica de cambio en el backend. Los principales criterios de decisión incluyen: ### Reconocimiento de características de la tarea El sistema analiza la estructura y la intención del prompt, determinando si se trata de diálogo, traducción, creación, código o extracción. La longitud del prompt, si contiene instrucciones del sistema, si requiere salida en JSON, también influyen en la decisión. ### Coincidencia de rendimiento y latencia Para tareas que requieren latencia extremadamente baja, el enrutador prefiere modelos ligeros, incluso priorizando nodos con menor carga en la infraestructura. Para tareas de procesamiento por lotes o análisis offline, puede aceptar mayor latencia a cambio de mayor capacidad de razonamiento o menor costo. ### Escalado de costos Solicitudes de baja complejidad como saludos, conversión de formatos o corrección ortográfica no necesitan modelos insignia de alto costo. GateRouter enrutará estas solicitudes a modelos ligeros pero competentes, reservando los modelos insignia para tareas que realmente requieran razonamiento profundo. En conjunto, esto puede reducir aproximadamente en un 80% el costo de llamadas a modelos sin afectar la calidad de la tarea. ### Aprendizaje de preferencias y memoria adaptativa Próximamente, GateRouter lanzará un mecanismo de memoria adaptativa que recopilará retroalimentación de “me gusta” y “no me gusta”, aprendiendo gradualmente la definición de “modelo óptimo” según el equipo o producto. La misma tarea puede tener diferentes criterios de “buen resultado” en distintas aplicaciones, y el enrutador ajustará su estrategia de acuerdo, afinándose con el uso real. ### Protección presupuestaria y conmutación automática en fallos Se puede establecer un límite rígido de consumo diario o mensual para un modelo, tarea o usuario, y cuando se alcanza, se suspende automáticamente la llamada para evitar gastos descontrolados. Además, si el modelo preferido no está disponible o responde con timeout, el enrutador degrada automáticamente a un modelo de respaldo, garantizando la disponibilidad del servicio. Este mecanismo de enrutamiento, en esencia, delega la complejidad de selección de modelos del desarrollador al sistema, manteniendo el control: aún puedes sobreescribir la decisión en la solicitud, especificando un modelo concreto. ## ¿Cómo equilibrar costo y rendimiento? El rendimiento del modelo y su costo de llamada suelen estar positivamente correlacionados, pero esta relación no es lineal. En muchas tareas ligeras, la diferencia entre un modelo ligero y uno insignia es mínima, mientras que el costo puede variar por decenas de veces. La estrategia de control de costos de GateRouter no es simplemente escoger el modelo más barato, sino seleccionar el modelo con la mejor relación calidad-costo dentro del rango aceptable. La evaluación de qué es “aceptable” proviene de un marco de evaluación automático y datos de retroalimentación del usuario. Esto permite que los equipos no tengan que equilibrar constantemente entre efectividad y sostenibilidad financiera. El modelo de pago por uso, sin tarifa mensual fija, también reduce la barrera de entrada. Sin necesidad de contratos predefinidos, con una sola clave API se pueden llamar a más de 40 modelos, pagando solo por los tokens consumidos. Esto es especialmente amigable para productos en etapa temprana y negocios con picos y valles en volumen: cuando el tráfico es bajo, casi sin costo; cuando crecen, el control de costos por solicitud se mantiene. En términos de pago, GateRouter integra el protocolo de pago nativo en cadena x402, soportando pagos directos en USDT, logrando un modelo verdaderamente por uso. Los agentes de IA pueden pagar de forma autónoma por cada transacción, sin necesidad de vincular tarjetas de crédito o recargas previas, alineándose con la lógica de Web3 y agentes inteligentes automáticos. ## Un único endpoint para todos los modelos Todos los modelos se acceden mediante una misma dirección base, compatible con el SDK de OpenAI, y con solo cambiar una línea de código se puede migrar de llamadas directas a modelos específicos a un enrutamiento inteligente. Esto elimina la carga de gestionar múltiples claves API, manejar diferentes códigos de error y mantener múltiples documentos. Actualmente, en GateRouter, se pueden usar más de 40 modelos diferentes, incluyendo GPT-4o, Claude, DeepSeek, Gemini, cubriendo desde modelos insignia de gran escala hasta modelos ligeros especializados. ## Cómo empezar Inicia sesión con OAuth en tu cuenta de Gate, genera una clave API desde el panel, y reemplaza la URL base en tu aplicación por el endpoint de GateRouter. Las solicitudes se envían como siempre, y el enrutador se encargará automáticamente. El panel ofrece métricas en tiempo real de uso y costos, facilitando el seguimiento de la asignación de modelos y gastos por tarea. En el futuro, la memoria adaptativa hará que la estrategia de enrutamiento se ajuste continuamente a las preferencias reales, y la protección presupuestaria asegurará que el gasto no supere los límites establecidos. Estas funciones estarán disponibles próximamente. ## Resumen La conmutación inteligente de modelos de GateRouter, en esencia, convierte en automatización la idea de “usar el modelo adecuado, gastar lo razonable y obtener la calidad esperada”. Permite a los equipos centrarse en la lógica del producto, en lugar del mercado de modelos y sus precios. En el equilibrio entre efectividad y costo, el enrutamiento asume un papel de optimización continua y supervisión automática, quizás una de las barreras que hay que superar para la escalabilidad de las aplicaciones de IA.
0
0
0
0