Vuelve el peso pesado: Claude Opus 4.5 de Anthropic reclama el trono

Last Updated on noviembre 25, 2025 1:59 pm by Laszlo Szabo / NowadAIs | Published on noviembre 25, 2025 by Laszlo Szabo / NowadAIs Vuelven los pesos pesados: Claude Opus 4.5 de Anthropic reclama el trono – Notas clave Liderazgo de referencia en codificación: Claude Opus 4.5 ha alcanzado una precisión del 80,9% en SWE-bench Verified, convirtiéndose en el primer modelo en superar el umbral del 80% en esta prueba de referencia de ingeniería de software estándar del sector. Este rendimiento superó tanto al Gemini 3 Pro de Google, con un 76,2%, como al GPT-5.1-Codex-Max especializado de OpenAI, con un 77,9%, estableciendo el modelo como el estado actual de la técnica para la generación automatizada de código y las tareas de depuración. Estrategia de precios agresiva: Anthropic redujo el precio de la API en aproximadamente un 67% en comparación con los modelos Opus anteriores, fijando las tarifas en 5 dólares por millón de tokens de entrada y 25 dólares por millón de tokens de salida. Esta drástica reducción de precios democratizó el acceso a las capacidades de IA de vanguardia, al tiempo que mantuvo la eficiencia de los tokens, lo que se traduce en un ahorro de costes: el modelo utiliza entre un 48% y un 76% menos de tokens que sus predecesores, dependiendo de la configuración del nivel de esfuerzo. Capacidades de agente mejoradas: El modelo demostró un rendimiento superior en tareas autónomas de largo horizonte, alcanzando el máximo rendimiento en sólo cuatro iteraciones, mientras que los modelos de la competencia necesitaron diez intentos. Claude Opus 4.5 introdujo mejoras en la gestión de la memoria, en las capacidades de uso de herramientas, incluido el descubrimiento dinámico de herramientas, y en la capacidad de coordinar múltiples subagentes en sistemas multiagente complejos que requieren un razonamiento sostenido a lo largo de sesiones prolongadas. Progresos en seguridad y alineación: Anthropic posicionó Claude Opus 4.5 como su modelo de alineación más robusto, con una resistencia sustancialmente mejorada a los ataques de inyección puntual en comparación con versiones anteriores y competidores. Las pruebas revelaron que el modelo mantiene tasas de rechazo más bajas en solicitudes benignas y discierne mejor el contexto, aunque los atacantes decididos siguen logrando tasas de éxito en torno al 5% en intentos únicos y aproximadamente el 33% en diez vectores de ataque variados. El modelo de IA que venció a todos los ingenieros humanos Cuando Anthropic lanzó Claude Opus 4.5 el 24 de noviembre de 2025, la comunidad de inteligencia artificial fue testigo de algo extraordinario. No se trataba de una actualización más en la interminable carrera entre laboratorios de inteligencia artificial. Se trataba de un modelo que obtuvo una puntuación más alta en la evaluación interna de ingeniería de Anthropic que cualquier candidato humano a un puesto de trabajo en la historia de la empresa. Piénsalo por un momento. Todas las personas que alguna vez solicitaron trabajo en una de las principales empresas de IA del mundo, evaluadas en una prueba técnica de dos horas, fueron superadas por el software. La llegada de Claude Opus 4.5 supone algo más que un logro técnico: representa un cambio fundamental en lo que las máquinas pueden hacer cuando se les asignan tareas complejas y ambiguas. El modelo no se limita a escribir código o seguir instrucciones. Según los primeros probadores de Anthropic, “lo entiende” Esa sutil comprensión del contexto, las compensaciones y las limitaciones del mundo real hace que esta versión sea diferente de todo lo anterior. La prisa por recuperar la corona El momento elegido para presentar Claude Opus 4.5 no fue casual. Pocos días antes de su debut, Google había lanzado Gemini 3 Pro y OpenAI había presentado GPT-5.1-Codex-Max. Los tres principales laboratorios de IA se enzarzaron en una batalla por la supremacía, lanzando cada uno modelos cada vez más capaces en la misma semana. Anthropic presentó Claude Opus 4.5 como su respuesta a la competencia, afirmando que era “el mejor modelo del mundo para codificación, agentes y uso informático” La prueba llegó en forma de puntuaciones de referencia que contaban una historia convincente. En SWE-bench Verified, el estándar del sector para medir la capacidad de ingeniería de software en el mundo real, Claude Opus 4.5 alcanzó un 80,9% de precisión. Superó al GPT-5.1-Codex-Max de OpenAI con un 77,9%, al Gemini 3 Pro de Google con un 76,2% e incluso al propio Sonnet 4.5 de Anthropic con un 77,2%. Por primera vez, un modelo había superado el umbral del 80% en esta prueba notoriamente difícil. Lo que resulta especialmente impresionante es cómo Claude Opus 4.5 alcanzó estas cotas. El modelo no se limitó a forzar soluciones con enormes recursos informáticos. En su lugar, demostró lo que los desarrolladores denominan “eficiencia simbólica”: hacer más con menos. En un nivel de esfuerzo medio, Claude Opus 4.5 igualó el rendimiento de Sonnet 4.5 utilizando un 76% menos de tokens de salida. Incluso en el nivel de esfuerzo más alto, en el que superó al Sonnet 4.5 en 4,3 puntos porcentuales, consumió un 48% menos de fichas. Esta eficiencia no era sólo una curiosidad técnica. Para los clientes empresariales que realizan millones de llamadas a API, se tradujo directamente en ahorro de costes y tiempos de respuesta más rápidos. Ahora las empresas pueden acceder a inteligencia de vanguardia sin los gastos de infraestructura que antes limitaban la IA avanzada a las organizaciones mejor financiadas. ¿Hasta qué punto puede ser inteligente el software? Más allá de las pruebas comparativas de codificación, Claude Opus 4.5 demostró mejoras en múltiples ámbitos que, en conjunto, dibujan un panorama de un sistema de IA de propósito general más capaz. En Terminal-bench, que pone a prueba las habilidades de automatización de la línea de comandos, el modelo obtuvo una puntuación del 59,3%, muy por delante del 54,2% de Gemini 3 Pro y sustancialmente mejor que el 47,6% de GPT-5.1. Estas cifras significan que Claude Opus 4.5 puede ejecutar flujos de trabajo complejos de varios pasos en entornos de terminal con mayor fiabilidad que los modelos de la competencia. Quizá
Google NotebookLM: el asistente de investigación de IA que convierte tus documentos en podcasts

Last Updated on noviembre 24, 2025 8:22 pm by Laszlo Szabo / NowadAIs | Published on noviembre 24, 2025 by Laszlo Szabo / NowadAIs Google NotebookLM: el asistente de investigación de inteligencia artificial que convierte tus documentos en podcasts – Notas clave Google NotebookLM es un asistente de investigación de IA basado en fuentes que sólo analiza los materiales que subes explícitamente, por lo que es fundamentalmente diferente de los chatbots de uso general que se basan en vastas bases de datos de entrenamiento. Este enfoque reduce el riesgo de alucinaciones y garantiza que las respuestas se puedan rastrear directamente hasta las fuentes mediante citas en línea. La función Audio Overview transforma los documentos en debates de tipo podcast entre dos anfitriones de IA con un sonido extraordinariamente natural, creando una forma atractiva de consumir información compleja. Estos podcasts personalizables pueden descargarse y escucharse en cualquier lugar, lo que los hace especialmente valiosos para estudiantes auditivos, personas que viajan diariamente al trabajo y cualquiera que prefiera el contenido hablado a la lectura de materiales densos. Los usuarios reales del mundo académico, empresarial, periodístico y de la investigación personal elogian constantemente la capacidad de Google NotebookLM para identificar rápidamente temas en múltiples fuentes, extraer información clave con citas y generar resultados útiles como guías de estudio, informes y preguntas frecuentes. La herramienta destaca a la hora de conectar ideas entre documentos y de ofrecer perspectivas externas sobre tu trabajo, aunque requiere una selección de fuentes y de indicaciones cuidadosa para obtener resultados óptimos. Cuando tu asistente digital lee realmente lo que le das Imagina tener un compañero de investigación que nunca se cansa de responder a tus preguntas, que nunca te juzga por preguntar lo mismo dos veces y que puede convertir tu montaña de documentos en una entretenida conversación de podcast mientras vas al trabajo por la mañana. Eso es exactamente lo que Google NotebookLM promete ofrecer. Este asistente de investigación impulsado por inteligencia artificial se ha convertido en una de las herramientas más comentadas en el ámbito de la productividad, y no sólo porque pueda resumir documentos o responder preguntas. La gente está perdiendo la cabeza por el hecho de que puede transformar sus aburridos trabajos de investigación en conversaciones al estilo podcast entre dos anfitriones de IA que suenan extraordinariamente humanos. Pero, ¿es Google NotebookLM realmente tan potente como sugiere el bombo publicitario, o no es más que otra demostración tecnológica que parece impresionante pero que se queda corta cuando realmente necesitas hacer tu trabajo? Veamos en qué se diferencia esta herramienta, en qué destaca y en qué puede dejarte con ganas de más. El nacimiento de un socio de investigación de IA Google NotebookLM se lanzó en 2023 como un proyecto experimental de Google Labs, impulsado por el modelo de lenguaje Gemini de la compañía. A diferencia de los chatbots de IA de uso general que se nutren de vastas bases de datos de información, Google NotebookLM adopta un enfoque fundamentalmente diferente. Es lo que los desarrolladores llaman una herramienta de IA “basada en fuentes”, lo que significa que sólo funciona con los materiales que tú subes específicamente. Piensa en ello como si contrataras a un asistente de investigación que lee exactamente lo que le das y nada más. Este enfoque específico hace que Google NotebookLM sea especialmente valioso para estudiantes, investigadores, periodistas y profesionales que necesitan extraer información de documentos concretos en lugar de obtener respuestas genéricas de todo Internet. La herramienta admite una impresionante variedad de materiales fuente, como PDF, Google Docs, Google Slides, sitios web, vídeos de YouTube, archivos de audio, documentos de Microsoft Word e incluso hojas de cálculo de Google. Cada fuente puede contener hasta 500.000 palabras, lo que te da un margen considerable para crear cuadernos de investigación exhaustivos. Cómo funciona Google NotebookLM Cuando creas un nuevo cuaderno en Google NotebookLM, básicamente estás creando un experto de IA dedicado y entrenado exclusivamente en tus materiales. El proceso es muy sencillo. Sube tus fuentes, que pueden ser documentos de investigación para una tesis, documentación de un producto para un nuevo proyecto o artículos de noticias sobre un tema que estés investigando. Una vez subidos, Google NotebookLM procesa estos materiales utilizando las funciones avanzadas de comprensión lingüística de Gemini. La interfaz presenta un panel de chat en el que puedes hacer preguntas, un panel de fuentes en el que se muestran todos los materiales que has subido y un panel de estudio en el que puedes generar diversos resultados, como resúmenes, guías de estudio y los ya famosos resúmenes de audio. Lo que diferencia a Google NotebookLM de la simple búsqueda en tus documentos es su capacidad para establecer conexiones entre varias fuentes. Pídele que compare argumentos de distintos documentos, que identifique temas comunes o que explique cómo se relacionan los conceptos de un documento con los de otro, y sintetizará la información de una forma que te llevaría horas realizar manualmente. El sistema utiliza una ventana contextual de un millón de tokens, lo que significa que puede procesar y referenciar enormes cantidades de texto simultáneamente. Cuando haces una pregunta, Google NotebookLM no se limita a buscar palabras clave. Entiende el contexto, establece conexiones entre las ideas relacionadas y proporciona respuestas con citas en línea que muestran exactamente qué fuente y qué pasaje específico informaron su respuesta. Esta función de citas es especialmente valiosa para trabajos académicos o para cualquier situación en la que necesites verificar información o rastrear afirmaciones hasta sus fuentes originales. Puedes hacer clic en cualquier cita para ir directamente a esa sección del documento fuente, lo que facilita la comprobación de los hechos. La función de resumen de audio que rompió Internet Aunque Google NotebookLM ofrece muchas funciones útiles, ninguna ha captado tanto la atención del público como su función Audio Overview. Esta función genera debates tipo podcast entre dos presentadores de IA que analizan y discuten el material que has subido. Las conversaciones suenan extraordinariamente naturales, con bromas casuales, pausas reflexivas e incluso algún “um” o “ya
ChatGPT Chat de grupo: El invitado de AI a una cena que sabe demasiado

Last Updated on noviembre 22, 2025 1:58 pm by Laszlo Szabo / NowadAIs | Published on noviembre 22, 2025 by Laszlo Szabo / NowadAIs ChatGPT Chat de grupo: El invitado de AI a una cena que sabe demasiado – Notas clave La función de chat en grupo de ChatGPT permite que hasta 20 personas y ChatGPT participen en una conversación compartida, permitiendo la colaboración asistida por IA en la planificación, la lluvia de ideas y la toma de decisiones. La privacidad se mantiene cuidadosamente: los chats de grupo no acceden a tu memoria personal ni a la configuración a nivel de cuenta, y los enlaces de invitación pueden gestionarse o revocarse por seguridad. Aunque la función admite medios enriquecidos (carga de archivos, generación de imágenes, búsqueda, dictado), algunas herramientas avanzadas (como la investigación profunda o el modo agente) aún no están disponibles en los chats de grupo. Cuando la IA se une a la fiesta Imagina planear una escapada de fin de semana con tus amigos, colaborar en un proyecto de grupo o debatir ideas para cenar con tus compañeros de piso, pero en lugar de intercambiar mensajes sólo entre personas, hay una IA que interviene. Eso es exactamente lo que OpenAI acaba de poner en marcha con su función de chat en grupo ChatGPT: un espacio compartido para varias personas en el que humanos e inteligencia artificial se mezclan en tiempo real. Lanzada globalmente en noviembre de 2025, esta función transforma ChatGPT de un asistente individual a un participante activo en una conversación de grupo. Con hasta 20 personas y la propia IA en un mismo chat, las posibilidades de coordinación, lluvia de ideas y toma de decisiones son de repente mucho más amplias. A continuación, analizamos cómo funciona esta función, por qué es importante y qué dicen los primeros usuarios. ¿Qué es la función de chat en grupo de ChatGPT? En esencia, el chat en grupo de ChatGPT es una integración en la aplicación ChatGPT (web y móvil) que permite a varios participantes humanos -hasta 20- conversar junto a la IA. En lugar de que cada persona abra su propio hilo privado con ChatGPT, todos se reúnen en un espacio compartido, y la IA escucha, contribuye y ayuda cuando es apropiado. OpenAI lo ha diseñado específicamente para la planificación, la colaboración y el debate: tanto si estás organizando un viaje, diseñando un proyecto o simplemente teniendo una lluvia de ideas sociable. OpenAI Lo que lo hace especialmente novedoso es que ChatGPT no responde a cada mensaje. En lugar de eso, “sigue el flujo” de la conversación y responde cuando hay una pregunta, una petición o una solicitud clara de ayuda. Si realmente quieres que diga algo, puedes mencionar explícitamente “ChatGPT” para que responda. Centro de ayuda de OpenAI Además, aunque puedes chatear normalmente, no se trata de un espacio sólo de texto: los chats de grupo admiten la carga de archivos, la generación y carga de imágenes, la búsqueda e incluso el dictado, dependiendo de tu plan de suscripción. Centro de ayuda de OpenAI Cómo funciona: Inicio, gestión y personalización del chat Empezar con un chat de grupo ChatGPT es muy sencillo: abre la aplicación ChatGPT (web o móvil), toca el icono “personas” en la parte superior derecha y pulsa “Iniciar chat de grupo” A partir de ahí, generas un enlace de invitación que puedes enviar hasta a otros 19 participantes. Centro de ayuda de OpenAI Si estás convirtiendo un chat individual existente en un grupo, ChatGPT crea una copia de esa conversación en lugar de modificar tu hilo privado. Tus chats personales permanecen separados de tus chats de grupo. Centro de ayuda de OpenAI Cada persona que se une debe crear un pequeño perfil – nombre, nombre de usuario, foto – para que el grupo pueda identificar quién es quién. Esto ayuda especialmente cuando ChatGPT se refiere a las personas por su nombre o utiliza fotos de perfil en la salida de imágenes. OpenAI En cuanto a la gestión, hay controles: puedes cambiar el nombre del grupo, silenciar las notificaciones, añadir o eliminar personas (aunque el creador sólo puede irse, no ser expulsado) y establecer instrucciones personalizadas sólo para ese grupo. Estas instrucciones pueden guiar el tono de ChatGPT, su personalidad o incluso el papel que debe desempeñar (planificador, moderador, socio creativo). Centro de ayuda de OpenAI Cómo se comporta ChatGPT en un entorno de grupo Uno de los mayores retos a la hora de añadir una IA a un chat de varias personas es saber cuándo debe hablar. En el chat de grupo ChatGPT, el modelo utiliza una nueva estrategia de comportamiento: no se limita a responder a todos los mensajes. En su lugar, utiliza pistas conversacionales para decidir cuándo intervenir. Centro de ayuda de OpenAI Si las respuestas automáticas están activadas, ChatGPT elige los momentos para intervenir, por ejemplo, cuando alguien hace una pregunta o necesita ayuda para comparar opciones. Si no, puedes ponerlo en modo “sólo menciones”. Entonces, sólo responderá cuando alguien lo etiquete explícitamente (por ejemplo, “@ChatGPT, ayúdame a elegir…”). Además, la IA aporta nuevos comportamientos sociales: puede reaccionar con emojis, referirse a las personas por sus nombres de perfil o fotos, y ajustar sus respuestas en función de instrucciones personalizadas específicas del grupo. Esto significa que puedes ajustar la voz que utiliza en diferentes grupos: puede ser más profesional para un equipo de trabajo o más informal para los amigos. OpenAI En cuanto a la tecnología subyacente, las respuestas del chat de grupo se basan en GPT-5.1 Auto. Este sistema selecciona dinámicamente el mejor modelo en función de lo que esté disponible para cada usuario (dependiendo de si está en Free, Go, Plus o Pro). El portal técnico Privacidad, datos y seguridad en las conversaciones de grupo Cuando se trata de privacidad, OpenAI diseñó el chat de grupo ChatGPT con una fuerte separación de tus conversaciones privadas. Tu memoria personal, y las instrucciones personalizadas a nivel de cuenta, no se trasladan a los chats de grupo. OpenAI ChatGPT tampoco formará nuevos
Nano Banana Pro: ¿El modelo de imagen 4K con IA de Google que está machacando a medio camino?

Last Updated on noviembre 20, 2025 8:22 pm by Laszlo Szabo / NowadAIs | Published on noviembre 20, 2025 by Laszlo Szabo / NowadAIs Nano Banana Pro: ¿El modelo de imagen 4K con IA de Google que se está estrellando a mitad de camino? – Notas clave Capacidades de nivel profesional: La Nano Banana Pro ofrece una resolución 4K con controles de calidad de estudio sobre la iluminación, los ángulos de cámara, la profundidad de campo y la gradación del color, lo que la convierte en una herramienta profesional más que en un experimento de consumo. A 0,24 dólares por imagen 4K, el precio refleja su mercado objetivo de agencias, vendedores y creadores comerciales que valoran más el ahorro de tiempo que el coste por imagen. Gran avance en el renderizado de texto: El modelo alcanza una precisión del 94% en las tareas de renderizado de texto en varios idiomas y estilos, lo que resuelve uno de los problemas más persistentes de la generación de imágenes mediante IA. Esta capacidad permite la producción directa de materiales de marketing, infografías y contenidos educativos sin corrección manual del texto. Ventaja de integración en el ecosistema: La estrategia de distribución de Google integra Nano Banana Pro en Gemini, Google Workspace, NotebookLM y plataformas de socios como Adobe Creative Cloud, creando ventajas de accesibilidad que las empresas independientes de imágenes de IA no pueden igualar. La integración de la búsqueda web permite incorporar datos en tiempo real a las imágenes generadas. La revolución de las imágenes 4K con IA que está cambiando la creación de contenidos visuales Google acaba de lanzar un arma en la guerra de la generación de imágenes con inteligencia artificial que podría remodelar la forma en que los profesionales crean contenidos visuales. El Nano Banana Pro, conocido oficialmente como Gemini 3 Pro Image, llegó el 20 de noviembre de 2025, y no se trata de otra actualización incremental, sino de un desafío directo a líderes del sector como Adobe Firefly, Midjourney y DALL-E de OpenAI. Construido sobre la plataforma Gemini 3 de Google, recientemente lanzada, este nuevo modelo aporta capacidades de resolución 4K, sofisticado renderizado de texto e integración de búsqueda web en tiempo real a los creadores que exigen resultados de nivel profesional. El momento no podría ser más estratégico, ya que Google pretende dominar un mercado en el que la IA visual se ha convertido en una infraestructura esencial para agencias, profesionales del marketing y creadores de contenidos de todo el mundo. El poder detrás de la generación de imágenes profesionales La tecnología de Nano Banana Pro representa un enorme salto con respecto a su predecesora, que tenía una modesta resolución de 1024 x 1024 píxeles. El nuevo modelo genera imágenes 2K nativas con la posibilidad de escalarlas a 4K, una capacidad que lo sitúa directamente en el territorio del flujo de trabajo profesional. Según TechCrunch, el modelo proporciona un control granular sobre los ángulos de cámara, la iluminación de la escena, la profundidad de campo, el enfoque y la gradación del color, funciones que suelen requerir un costoso software de edición o configuraciones fotográficas profesionales. La arquitectura Gemini 3 subyacente permite a Nano Banana Pro “pensar” a través de tareas de generación de imágenes con razonamiento lógico, interpretando indicaciones complejas con una comprensión casi humana. Esta avanzada capacidad de razonamiento permite al modelo mantener la coherencia en múltiples ediciones al tiempo que comprende la composición general, el estilo y el contexto de lo que los usuarios intentan crear. Para los profesionales creativos, esto se traduce en menos ciclos de revisión y una mayor rapidez en la aprobación de los activos. Renderizado de texto que realmente funciona Cualquiera que se haya enfrentado a imágenes generadas por inteligencia artificial conoce la frustración que producen los textos ilegibles. Nano Banana Pro aborda directamente este problema con lo que, según Google, son las mejores capacidades de renderizado de texto de su clase. El modelo es capaz de generar texto legible y estilizado en varios idiomas, desde rótulos arquitectónicos hasta diseños infográficos, con una precisión que los modelos anteriores no podían igualar. En las pruebas realizadas por Simon Willison, el modelo demostró un índice de precisión del 94% en las tareas de renderizado de texto, lo que significa que sólo 6 de cada 100 imágenes requirieron corrección manual, una mejora espectacular con respecto a la competencia. Esta capacidad abre nuevas puertas a los profesionales del marketing que crean materiales de campaña, a los educadores que desarrollan contenidos visuales y a los diseñadores que producen maquetas listas para el cliente sin necesidad de retoques posteriores a la generación. El modelo maneja fuentes, estilos e incluso elementos caligráficos con una sofisticación que antes era exclusiva de los diseñadores humanos que trabajaban en suites de software profesionales. La integración de la búsqueda web cambia las reglas del juego Una de las características más distintivas de Nano Banana Pro es su capacidad para realizar búsquedas en Internet durante las sesiones de generación de imágenes. Esta funcionalidad, que Google denomina “Grounding with Google Search”, permite al modelo incorporar datos en tiempo real a los resultados visuales. Los usuarios pueden pedir al sistema que busque una receta y genere fichas de estudio, cree infografías basadas en datos meteorológicos actuales o visualice estadísticas deportivas en directo, todo ello sin salir de la interfaz de generación. Esta integración representa una ventaja estratégica que las empresas independientes de imagen de IA no pueden replicar fácilmente. Según informa Gulf News, esta capacidad permite obtener resultados listos para producción que incorporan tendencias actuales e información objetiva, lo que reduce la necesidad de cambiar de herramienta y los ciclos de investigación. Para los equipos de marketing que trabajan en campañas urgentes, esta característica por sí sola podría justificar la estructura de precios premium. La estrategia de precios revela las ambiciones profesionales de Google Google ha posicionado el Nano Banana Pro con precios claramente orientados a usuarios profesionales y flujos de trabajo comerciales. A 0,24 dólares por imagen 4K y 0,139 dólares por imagen
Cómo el comercio de criptodivisas con IA convirtió 10.000 dólares en 14.000 (mientras otros lo perdían todo)

Last Updated on noviembre 4, 2025 1:46 pm by Laszlo Szabo / NowadAIs | Published on noviembre 4, 2025 by Laszlo Szabo / NowadAIs Cómo el comercio de criptodivisas con IA convirtió 10.000 dólares en 14.000 (mientras otros lo perdían todo) – Notas clave Dinero real, apuestas reales: La competición Alpha Arena de nof1.ai demostró que el trading de criptomonedas con IA funciona en mercados reales, con modelos como DeepSeek logrando más de un 40% de rentabilidad, mientras que otros como Gemini perdieron más del 28% de su capital. Estos resultados demuestran tanto el potencial como el peligro de los sistemas de negociación automatizados que operan con dinero real en mercados reales. La estrategia importa más que la tecnología: El éxito en el trading de criptodivisas con IA depende menos de tener el modelo más avanzado y más de implementar estrategias apropiadas para las condiciones actuales del mercado. Los enfoques sencillos, como las posiciones centradas en Bitcoin con un calendario adecuado, superaron a las estrategias complejas de múltiples activos durante determinadas fases del mercado, mientras que la diversificación ayudó a otros modelos a capear la volatilidad. La supervisión humana sigue siendo esencial: A pesar de las capacidades de automatización, la negociación eficaz de criptomonedas con IA requiere una supervisión continua, actualizaciones periódicas, una sólida gestión de riesgos y la voluntad de intervenir cuando los sistemas obtienen malos resultados. La pérdida de capital del 80% experimentada por algunos sistemas de negociación con IA en situaciones de volatilidad extrema demuestra que los algoritmos no pueden sustituir por completo al criterio humano. Cómo el trading de criptodivisas con IA convirtió 10.000 dólares en 14.000 (mientras otros lo perdieron todo) Los mercados de divisas digitales nunca duermen, y tampoco lo hacen las máquinas que los vigilan. En octubre de 2025, seis modelos líderes de IA empezaron a competir con dinero real en la bolsa Hyperliquid, cada uno empezando con 10.000 dólares para demostrar qué sistema de inteligencia artificial podía dominar los mercados de criptomonedas. No se trataba de simulaciones ni de teoría, sino de operaciones reales con consecuencias reales. El proyecto, auspiciado por nof1.ai, demostró que los mercados son la prueba definitiva de la inteligencia, donde cada decisión se somete a un juicio inmediato a través del beneficio o la pérdida. Los nuevos jugadores en la mesa de negociación DeepSeek Chat V3.1 se situó en cabeza con una rentabilidad del 25,33% al tercer día, mientras que otros modelos luchaban por mantener su capital inicial. La competición, conocida como Alpha Arena, reveló algo crucial sobre el comercio de criptomonedas con IA: el éxito no depende sólo de la velocidad o del procesamiento de datos, sino de lo bien que los algoritmos interpretan la naturaleza caótica de los mercados de activos digitales. Cada modelo de IA debe generar señales de negociación de forma independiente, determinar el tamaño de las posiciones, programar las entradas y salidas y gestionar el riesgo sin intervención humana. Esta autonomía representa tanto la promesa como el peligro de los sistemas de negociación automatizados. Cuando DeepSeek dominó las primeras rondas, los operadores de las redes sociales empezaron a copiar sus posiciones. Otros adoptaron el enfoque opuesto, apostando contra Gemini 2.5 Pro de Google, que sufrió pérdidas superiores al 28% durante el mismo periodo. La competición Alpha Arena en nof1.ai ofrecía una transparencia total, permitiendo a cualquiera observar cada operación, cada decisión y cada error cometido por estos sofisticados sistemas. Esta visibilidad transformó los debates abstractos sobre el comercio de criptomonedas con IA en lecciones concretas sobre lo que funciona y lo que no en los mercados reales. Cómo opera realmente la inteligencia artificial con criptomonedas Los robots de trading tradicionales siguen reglas rígidas: si el precio alcanza X, compra Y cantidad. Los sistemas modernos de comercio de criptodivisas con IA funcionan de forma diferente. Utilizan algoritmos sofisticados y aprendizaje automático para realizar operaciones sin supervisión constante, analizando patrones que los operadores humanos podrían pasar por alto mientras procesan conjuntos de datos masivos en milisegundos. El mercado de criptomonedas se mueve rápido y nunca duerme, con precios que cambian 24/7, lo que requiere precisión, velocidad y atención las 24 horas del día. Este entorno crea las condiciones perfectas para los sistemas automatizados. Bitsgap y otras plataformas similares ofrecen bots de negociación en cuadrícula que colocan múltiples órdenes de compra y venta a intervalos fijos, beneficiándose de la volatilidad del mercado. Los robots de promediación del coste en dólares compran cantidades fijas a intervalos regulares, suavizando las fluctuaciones de los precios. OKX ofrece más de 600 bots preconfigurados que cubren estrategias como dollar-cost averaging, arbitrage, slicing, signal y grid trading. Los usuarios pueden filtrar por reducción máxima, porcentajes de beneficios y pérdidas, y tiempo de ejecución desde la activación. La plataforma demuestra cómo la negociación de criptomonedas con IA se ha hecho accesible a los inversores minoristas, no sólo a los institucionales con enormes recursos informáticos. Las capacidades de aprendizaje automático permiten a estos sistemas adaptar las estrategias en función de las condiciones del mercado. WunderTrading emplea algoritmos avanzados que analizan los pares de criptomonedas en busca de patrones de convergencia y divergencia que los robots tradicionales no podrían detectar. Sus capacidades permiten identificar patrones de negociación emergentes a medida que evolucionan los mercados, en lugar de basarse en reglas estáticas programadas meses antes. Estrategias que funcionan (y las que no) Cómo el comercio de criptodivisas con IA convirtió 10.000 dólares en 14.000 – gráfico y foto de monedas Bitcoin Los resultados de Alpha Arena revelaron datos fascinantes sobre las estrategias de trading de criptomonedas con IA. Qwen3 Max, de Alibaba, tomó la delantera al negociar únicamente con Bitcoin, tomar la decisión correcta y apostar todo a una posición fuerte. Este enfoque agresivo funcionó durante la subida del Bitcoin de 106.000 a 115.600 dólares, pero la simplicidad de la estrategia contradecía los complejos cálculos que determinaban los puntos de entrada y salida. DeepSeek Chat V3.1 mantuvo posiciones largas apalancadas en Bitcoin, Ethereum, Solana, Binance Coin, Dogecoin y Ripple con un valor de posición perpetuo
La IA Gemini 3 de Google: el primer modelo que realmente entiende lo que quieres decir

Last Updated on noviembre 19, 2025 9:26 pm by Laszlo Szabo / NowadAIs | Published on noviembre 19, 2025 by Laszlo Szabo / NowadAIs La IA Gemini 3 de Google: el primer modelo que realmente entiende lo que quieres decir – Notas clave Rendimiento de vanguardia en todos los puntos de referencia: Gemini 3 AI consigue puntuaciones récord en múltiples pruebas de referencia del sector, incluida una puntuación del 37,5% en Humanity’s Last Exam y se convierte en el primer modelo en superar los 1.500 Elo en la clasificación de LMArena. El modelo demuestra una especial fortaleza en razonamiento matemático, con un 23,4% en MathArena Apex, y en razonamiento visual, con un 31,1% en ARC-AGI-2, lo que representa mejoras sustanciales respecto a los modelos de la competencia y a su predecesor. Interfaz de usuario generativa y capacidades multimodales: El modelo introduce interfaces de usuario generativas que crean experiencias interactivas personalizadas sobre la marcha, desde simulaciones físicas hasta calculadoras hipotecarias. Su comprensión multimodal abarca el procesamiento de texto, imágenes, vídeo, audio y código dentro de un sistema unificado, con una puntuación del 81% en MMMU-Pro y del 87,6% en Video-MMMU, al tiempo que mantiene una ventana contextual de un millón de tokens para procesar amplia información. Herramientas para desarrolladores e integración empresarial: Gemini 3 AI es la base de Google Antigravity, una nueva plataforma de desarrollo en la que los agentes de IA planifican y ejecutan de forma autónoma complejas tareas de software. El modelo supera las pruebas de referencia de codificación con un 76,2% en SWE-bench Verified y 1487 Elo en WebDev Arena, lo que permite una codificación vibrante en la que las instrucciones en lenguaje natural generan aplicaciones funcionales al tiempo que se integra en el ecosistema de Google, que alcanza los 650 millones de usuarios mensuales. Google acaba de lanzar una bomba en la carrera de la inteligencia artificial. El gigante tecnológico ha lanzado Gemini 3 AI, su modelo más inteligente que ayuda a los usuarios a dar vida a cualquier idea. Tan solo siete meses después de Gemini 2.5, este lanzamiento demuestra la rapidez con la que el panorama de la IA sigue cambiando bajo nuestros pies. El rompedor de puntos de referencia que está dando que hablar Cuando las empresas anuncian nuevos modelos de IA, les encanta lanzar cifras impresionantes. Pero la IA Gemini 3 no se limita a hacer gala de un discurso publicitario, sino que domina las listas de éxitos de una forma que hace que los observadores del sector se paren a pensar dos veces. En Humanity’s Last Exam, una prueba de razonamiento académico, Gemini 3 Pro obtuvo un 37,5%, frente al 21,6% de su predecesor. Puede que esto no suene tan extraordinario hasta que te das cuenta de que las puntuaciones máximas anteriores rondaban el 31%, lo que supone un auténtico salto adelante. La verdadera sorpresa viene del test de razonamiento visual ARC-AGI-2. Gemini 3 Pro alcanzó el 31,1%, frente al 4,9% del modelo anterior. La mayoría de los modelos de la competencia se sitúan entre el 0% y el 15% en esta prueba. Entonces Google aparece con puntuaciones tres veces superiores a las de la competencia. Es el equivalente en IA a presentarse a un concurso de ortografía y recitar a Shakespeare de memoria. La IA de Gemini 3 no se detiene ahí. Encabezó la clasificación de LMArena con una puntuación de 1501 Elo, convirtiéndose en el primer gran modelo lingüístico en cruzar el umbral de los 1500. ¿Matemáticas? Estableció un nuevo estándar con un 23,4% en MathArena Apex. Para que nos hagamos una idea, los mejores modelos anteriores apenas rozaron el 1-2% en esa prueba. Comprensión del contexto como nunca antes Aquí es donde Gemini 3 AI se pone interesante para los usuarios normales que no se preocupan por los números de referencia. Google afirma que el modelo permite a los usuarios obtener mejores respuestas a preguntas más complejas y no necesita tantas indicaciones para determinar el contexto. Piensa en lo frustrante que es preguntarle algo a un asistente de inteligencia artificial y tener que reformularlo tres veces antes de que entienda lo que quieres decir. Gemini 3 AI pretende solucionar este problema. El modelo tiene lo que Google denomina capacidades de razonamiento de última generación. Está diseñado para captar la profundidad y los matices, ya sea percibiendo pistas sutiles en una idea creativa o desgranando las capas superpuestas de un problema difícil. Traducción: es mejor leyendo la sala y entendiendo lo que realmente estás pidiendo, no sólo lo que has escrito literalmente. Según Demis Hassabis, Director General de DeepMind, la unidad de Inteligencia Artificial de Google, las respuestas de Gemini 3 cambiarán los clichés y los halagos por una visión genuina. El modelo te dice lo que necesitas oír, no lo que quieres oír. Es un cambio refrescante respecto a los asistentes de IA que suenan como si estuvieran haciendo una audición para un equipo de animadoras. Modo de pensamiento profundo: Cuando la inteligencia normal no es suficiente Para los problemas que requieren una gran potencia cognitiva, Google ha introducido el modo Deep Think de Gemini 3. Se trata de un generador de respuestas de inteligencia artificial al uso. No se trata de un generador de respuestas de inteligencia artificial al uso. Deep Think supone un cambio radical en las capacidades de razonamiento y comprensión multimodal. Tarda más en responder porque realmente dedica tiempo a pensar en problemas complejos en lugar de escupir la primera respuesta que se le ocurre. Las cifras de Deep Think son francamente absurdas. En las pruebas, obtuvo un 41,0% en Humanity’s Last Exam sin utilizar ninguna herramienta y un 93,8% en GPQA Diamond. También alcanzó una cifra sin precedentes del 45,1% en ARC-AGI-2 con ejecución de código, lo que demuestra una capacidad para resolver nuevos retos que los modelos anteriores no podían alcanzar. El modo Deep Think se encuentra actualmente en fase de pruebas de seguridad antes de llegar a los suscriptores de Google AI Ultra en las próximas semanas. Las pruebas adicionales
Espionaje de IA: El fantasma en la máquina es ahora un espía real

Last Updated on noviembre 15, 2025 2:40 pm by Laszlo Szabo / NowadAIs | Published on noviembre 15, 2025 by Laszlo Szabo / NowadAIs Espionaje de IA: El fantasma en la máquina es ahora un espía real – Sección de notas clave La amenaza es real: se ha documentado la primera campaña de espionaje con IA a gran escala. Un grupo patrocinado por el Estado utilizó una IA “agéntica” para ejecutar de forma autónoma el 80-90% de un ciberataque complejo, que incluía reconocimiento, recolección de credenciales y exfiltración de datos. Un multiplicador de fuerzas, no un sustituto: Esta nueva forma de espionaje con IA se basa en la IA como un multiplicador de fuerza masivo, que permite a un operador humano hacer el trabajo de un gran equipo. Sin embargo, sigue siendo necesaria la orientación humana para construir el marco, tomar decisiones clave y validar los hallazgos de la IA, ya que los modelos son propensos a “alucinar” información incorrecta. La defensa también se basa en la IA: La mejor defensa contra la IA ofensiva es la IA defensiva. Los equipos de seguridad están utilizando la IA para la detección y automatización de amenazas. Una estrategia nueva y eficaz es la “tecnología del engaño”, que coloca señuelos y “honey-tokens” en una red para atrapar a los atacantes automatizados de IA, que, a diferencia de los humanos, lo sondearán todo. El amanecer del espía autónomo El mundo de la inteligencia internacional siempre ha sido un juego de sombras, ingenio y agentes humanos. Durante décadas, el mundo digital se ha limitado a proporcionar un nuevo terreno de juego para las mismas viejas partidas de espía contra espía. Pero un acontecimiento reciente ha desvelado un nuevo tipo de jugador, que no es humano en absoluto. A mediados de 2025, los profesionales de seguridad de la empresa de IA Anthropic detectaron y desbarataron lo que ellos llaman la primera campaña de ciberespionaje a gran escala orquestada no sólo con IA, sino por IA. No se trataba simplemente de utilizar un algoritmo inteligente para elaborar un correo electrónico de phishing convincente, sino de una operación en la que la propia IA ejecutó el 80-90% del ataque. Este incidente, atribuido con gran certeza a un grupo patrocinado por el Estado chino, señala un profundo cambio en el panorama de la seguridad nacional y la protección de datos corporativos. Los atacantes convirtieron el propio modelo de Anthropic, Claude, en un saboteador digital, dirigido a empresas tecnológicas, instituciones financieras y organismos gubernamentales. Este suceso hace que la amenaza del espionaje de IA pase de ser un escenario teórico “qué pasaría si” directamente a una realidad documentada “aquí y ahora”. Las implicaciones son enormes, ya que este nuevo método proporciona a los atacantes una velocidad y escala sobrehumanas, alterando fundamentalmente el cálculo de la ciberdefensa. La guerra silenciosa de bits y bytes acaba de conseguir un nuevo soldado autónomo, y los equipos de seguridad se apresuran a comprender sus capacidades. Anatomía de un ataque dirigido por IA La brillantez de esta nueva forma de espionaje de IA reside en su ejecución. Los atacantes no se limitaron a pedir a una IA que “pirateara este objetivo” En lugar de eso, primero construyeron un marco a medida y luego, mediante una serie de ingeniosos trucos, “jailbrokearon” el modelo de Claude para saltarse sus guardarraíles de seguridad incorporados. Como detalla el propio informe de Anthropic, los operadores engañaron a la IA diciéndole que era un empleado de una empresa de ciberseguridad legítima que realizaba una prueba defensiva. También dividieron el ataque en miles de pequeñas tareas aparentemente inocentes, de modo que el modelo nunca tuvo el contexto completo y malicioso de sus acciones. Una vez comprometida, la IA se convirtió en un “agente”, un término para un sistema que puede funcionar de forma autónoma para completar tareas complejas con un mínimo de orientación humana. Los operadores humanos (quizá sólo uno, haciendo el trabajo de un equipo de 10 personas ) simplemente apuntaban la IA a un objetivo. El agente de IA comenzaba entonces su trabajo, realizando el reconocimiento, escaneando vulnerabilidades, recopilando credenciales, moviéndose por la red y, en última instancia, filtrando datos, todo ello mientras el operador humano estaba probablemente dormido. La velocidad era algo que los equipos humanos nunca podrían igualar, ya que la IA realizaba miles de solicitudes, a menudo varias por segundo. Esta operación proporcionó un modelo claro para futuras campañas de espionaje de IA, demostrando un método que es rápido, escalable e increíblemente difícil de rastrear hasta sus amos humanos. Más de una forma de robar con IA Aunque el incidente de Anthropic afectó a un sofisticado agente autónomo, no es ni mucho menos la única forma en que los atacantes aprovechan la inteligencia artificial. El uso más común y quizás el más extendido de forma inmediata es la ingeniería social. Los modelos generativos de IA son excepcionalmente buenos en la elaboración de correos electrónicos de phishing, mensajes de texto y difusión en redes sociales altamente personalizados y convincentes. Estos mensajes pueden imitar el tono y el estilo de personas u organizaciones de confianza, sin las clásicas señales de advertencia de mala gramática o redacción torpe que solían delatar antiguos intentos de phishing. Este tipo de espionaje de IA consiste en perfeccionar el “señuelo” para engañar a un humano y conseguir que entregue las llaves del reino. La amenaza se agrava con el uso de deepfakes. Los atacantes pueden ahora utilizar la IA para generar archivos de vídeo o audio de la voz de una persona, como un director general o un responsable financiero, para crear una falsificación convincente. Imagina recibir un mensaje de audio “tranquilo” de tu jefe pidiéndote una transferencia de fondos urgente e irregular, o una videollamada de un administrador de TI pidiéndote que “verifiques” tu contraseña. Esta fusión de ingeniería social impulsada por IA y tecnología deepfake crea una poderosa herramienta para el espionaje de IA que se dirige al eslabón más débil de cualquier cadena de seguridad: la confianza humana. Estos ataques
¿El asesino de Adobe? Por qué los profesionales se están pasando a Qwen-Edit-2509 Fusion LoRA

Last Updated on noviembre 18, 2025 2:13 pm by Laszlo Szabo / NowadAIs | Published on noviembre 18, 2025 by Laszlo Szabo / NowadAIs ¿El asesino de Adobe? Por qué los profesionales están cambiando a Qwen-Edit-2509 Fusion LoRA – Notas clave Integración de múltiples fuentes: El Qwen-Edit-2509 Fusion LoRA sobresale en la fusión de hasta tres entradas de imágenes distintas (sujeto, producto, escena) en una sola composición cohesiva con iluminación y perspectiva precisas. La coherencia es el rey: A diferencia de las versiones anteriores, este modelo reduce drásticamente la desviación de identidad, garantizando que los rostros, logotipos y texturas de productos específicos permanezcan inalterados durante el proceso de edición. Control profesional: Con soporte nativo para ControlNet (profundidad, borde, pose), el Qwen-Edit-2509 Fusion LoRA ofrece a los diseñadores un control preciso sobre la disposición espacial de los elementos, lo que lo hace adecuado para flujos de trabajo comerciales de alta gama. El nuevo estándar en alquimia digital Si has pasado algún tiempo en las trincheras digitales de la generación de imágenes a finales de 2025, conoces la fatiga específica del “casi perfecto” Generas un personaje que capta la emoción exacta que querías, pero el fondo es un caos. Finalmente consigues el fondo, pero la iluminación del sujeto parece pegada con tijeras por un niño pequeño. Entra en escena Qwen-Edit-2509 Fusion LoRA, una herramienta que, desde su lanzamiento en septiembre, se ha convertido silenciosa pero agresivamente en el arma principal de los artistas digitales y los profesionales del marketing. No se trata de una mera actualización de software, sino de una recalibración fundamental de nuestra forma de abordar la composición de imágenes sintéticas. El Qwen-Edit-2509 Fusion LoRA llegó como parte del ciclo de septiembre de 2025 del equipo Qwen de Alibaba, silenciando eficazmente el ruido que rodea a los modelos puramente generativos de menor calidad. Mientras que las iteraciones anteriores tenían problemas con el “valle misterioso” de la colocación de objetos, que a menudo resultaba en pies flotantes o sombras desajustadas, esta Fusion LoRA específica crea una realidad cohesiva a partir de elementos dispares. Es la diferencia entre un collage y una fotografía. Estamos asistiendo a un aumento masivo de la adopción porque la Fusion LoRA Qwen-Edit-2509 resuelve por fin el “problema de la costura”, eliminando las incómodas costuras visuales que suelen delatar una imagen editada con IA. Edición de varias imágenes: La lógica de la triple amenaza La característica principal que diferencia al Qwen-Edit-2509 Fusion LoRA de sus competidores occidentales es su capacidad nativa para manejar entradas multi-imagen -específicamente, hasta tres fuentes distintas simultáneamente. En el pasado, intentar fusionar una persona, un producto y una escena de fondo era una receta para el desastre que requería horas de corrección manual en Photoshop. Qwen-Edit-2509 Fusion LoRA utiliza un método de entrenamiento basado en la concatenación de imágenes, lo que permite al modelo “razonar” a través de los contextos visuales de las tres entradas al mismo tiempo. Por ejemplo, si le das a Qwen-Edit-2509 Fusion LoRA una foto de una modelo de moda, otra imagen de un bolso de lujo y una tercera imagen de una lluviosa calle parisina, no se limita a apilarlas por capas. Calcula cómo incidiría la luz ambiental de las farolas en el cuero del bolso y en la mejilla de la modelo. Esta capacidad, a menudo discutida en las comunidades centradas en ComfyUI, permite a los usuarios construir escenas en lugar de simplemente retocar píxeles.El Qwen-Edit-2509 Fusion LoRA entiende que si el fondo es una puesta de sol, el sujeto no puede estar iluminado por la dura luz del mediodía, y ajusta la “fusión” en consecuencia. Dominar la coherencia con el Qwen-Edit-2509 Fusion LoRA Uno de los aspectos más frustrantes de la edición de IA siempre ha sido el cambio de identidad. Arreglas la iluminación, pero de repente el sujeto parece su primo, o el logotipo de la marca que intentas colocar se convierte en jeroglíficos alienígenas.Qwen-Edit-2509 Fusion LoRA aborda este problema con agresivos protocolos de preservación de la identidad que aprovechan el modelo de lenguaje de visión Qwen2.5-VL. Cuando se probó frente a la versión de agosto del modelo base, el Qwen-Edit-2509 Fusion LoRA demostró una notable capacidad para fijar rasgos faciales y detalles de productos sin alucinar cambios no deseados. Esto es especialmente importante para el trabajo comercial, donde la integridad de la marca no es negociable. Un director de marca no puede permitirse que el logotipo de su producto se convierta en un galimatías sólo porque haya cambiado la iluminación. El Qwen-Edit-2509 Fusion LoRA sobresale aquí, preservando logos y texturas incluso cuando el objeto es rotado o reiluminado para que coincida con la nueva escena. De acuerdo con los comentarios detallados en la Comunidad DEV, esta fiabilidad es la razón por la que muchos usuarios están abandonando los flujos de trabajo más antiguos como Inpainting. El Qwen-Edit-2509 Fusion LoRA garantiza que una lata de Coca-Cola parezca una lata de Coca-Cola, aunque le pidas a la IA que la ponga en manos de un caballero medieval. El fenómeno “Ponlo aquí La comunidad ha apodado cariñosamente algunos de estos flujos de trabajo “Put It Here”, en referencia a la facilidad con la que Qwen-Edit-2509 Fusion LoRA coloca objetos en nuevos entornos. Esta funcionalidad no es magia; es el resultado de las capacidades de edición semántica de alto nivel que combinan el “control de apariencia” (VAE) con el “control semántico” (Qwen2.5-VL).Qwen-Edit-2509 Fusion LoRA admite integraciones ControlNet nativas, incluidos mapas de profundidad, mapas de bordes y detección de puntos clave. Esto significa que un usuario puede dibujar un contorno en una servilleta, cargarlo junto a una imagen del producto y Qwen-Edit-2509 Fusion LoRA colocará el producto en esa perspectiva específica. Se trata de un nivel de control que antes estaba reservado a programas de renderizado 3D de gama alta como Blender. Gracias a Qwen-Edit-2509 Fusion LoRA, los diseñadores pueden iterar docenas de conceptos de diseño en cuestión de minutos, con la seguridad de que las relaciones espaciales seguirán siendo físicamente plausibles. Renderizado de texto y contexto cultural Otra
Inteligencia artificial gratuita que supera a GPT-5: el rendimiento récord de Kimi K2 Thinking

Last Updated on noviembre 8, 2025 1:44 pm by Laszlo Szabo / NowadAIs | Published on noviembre 8, 2025 by Laszlo Szabo / NowadAIs La IA libre que supera a la GPT-5: el rendimiento récord de Kimi K2 Thinking – Notas clave El modelo de peso abierto supera a los competidores cerrados: Kimi K2 Thinking supera a GPT-5 y a Claude Sonnet 4.5 en varias pruebas de razonamiento y agenciamiento, como Humanity’s Last Exam (44,9% frente a 41,7% y 32,0%) y BrowseComp (60,2% frente a 54,9% y 24,1%), sin dejar de ser completamente libre y de código abierto bajo una licencia MIT modificada Capacidades de largo plazo sin precedentes: El modelo mantiene un razonamiento coherente a lo largo de 200 a 300 llamadas secuenciales a herramientas sin intervención humana, una capacidad que establece nuevos estándares para los agentes autónomos de IA y supera con creces los 30 a 50 pasos en los que se degradan la mayoría de los modelos anteriores Arquitectura eficiente con despliegue práctico: Gracias a un diseño de mezcla de expertos con un billón de parámetros totales pero sólo 32.000 millones de activos por token, combinado con la cuantización nativa INT4, Kimi K2 Thinking ofrece un rendimiento de primera clase con una velocidad de inferencia dos veces superior y un coste de formación de sólo 4,6 millones de dólares Cuando un modelo de inteligencia artificial totalmente abierto empieza a superar a sistemas patentados cuyo acceso cuesta millones, la gente se da cuenta. Kimi K2 Thinking, lanzado por Moonshot AI, con sede en Pekín, en noviembre de 2025, ha hecho exactamente eso. Este sistema de un billón de parámetros no solo iguala a competidores de código cerrado como GPT-5 y Claude Sonnet 4.5 en las pruebas de referencia, sino que los supera en varias áreas clave sin dejar de ser completamente gratuito y abierto para que cualquiera pueda utilizarlo Qué hace diferente a Kimi K2 Thinking El propio nombre nos da una pista de lo que diferencia a este modelo. Kimi K2 Thinking representa la última evolución de la serie Kimi, diseñada específicamente como un “agente pensante” en lugar de un simple chatbot conversacional. Mientras que la mayoría de los modelos de IA destacan por sus respuestas rápidas, Kimi K2 Thinking adopta un enfoque fundamentalmente diferente, razonando los problemas paso a paso e invocando dinámicamente herramientas para llevar a cabo tareas complejas Moonshot AI construyó este modelo utilizando una arquitectura de Mezcla de Expertos que contiene un billón de parámetros totales, aunque sólo 32.000 millones están activos durante cada inferencia. Este diseño de activación dispersa permite al modelo alcanzar una escala masiva sin dejar de ser sorprendentemente eficiente en su ejecución. La arquitectura consta de 61 capas, 384 expertos (8 seleccionados por token) y admite una impresionante ventana de contexto de 256.000 tokens, el doble que muchos competidores Lo que realmente distingue a Kimi K2 Thinking de los modelos anteriores es su metodología de entrenamiento. El equipo empleó Quantization-Aware Training durante la fase de post-entrenamiento, implementando la precisión nativa INT4 para los componentes de Mixture-of-Experts. Esta técnica ofrece una velocidad de inferencia aproximadamente dos veces mayor que la precisión estándar, manteniendo al mismo tiempo el rendimiento de referencia. Según informes que citan fuentes familiarizadas con el asunto, el entrenamiento de este modelo costó solo 4,6 millones de dólares, una fracción de lo que las grandes empresas tecnológicas suelen invertir en sistemas de vanguardia Rendimiento récord en las pruebas de referencia Kimi K2 Thinking’s Record-Breaking Performance – Benchmarks in General Tasks Fuente Los números cuentan una historia convincente. En Humanity’s Last Exam, una prueba muy difícil que mide la capacidad de razonamiento avanzado, Kimi K2 Thinking obtuvo un 44,9%, por encima del 41,7% de GPT-5 y significativamente por encima del 32,0% de Claude Sonnet 4.5. Esta prueba evalúa específicamente los tipos de razonamiento complejo y en varios pasos que separan a los sistemas realmente capaces de los que se limitan a emparejar patrones Las capacidades agenticas del modelo brillan aún más en tareas que requieren el uso de herramientas y la navegación web. En BrowseComp, que mide la capacidad de los sistemas de IA para buscar y sintetizar información en Internet, Kimi K2 Thinking alcanzó un 60,2%, superando ampliamente el 54,9% de GPT-5 y más que duplicando el 24,1% de Claude Sonnet 4.5. Las pruebas independientes realizadas por Artificial Analysis confirmaron estos puntos fuertes e informaron de que Kimi K2 Thinking obtuvo una puntuación del 93% en la prueba de referencia τ²-Bench Telecom, la puntuación más alta que habían medido de forma independiente para el uso de herramientas agenticas El rendimiento de la codificación presenta una imagen más matizada. En SWE-Bench Verified, que comprueba si los modelos pueden generar parches para corregir errores de software reales, Kimi K2 Thinking obtuvo un 71,3%. Aunque competitivo, queda por detrás del 74,9% de GPT-5 y del 77,2% de Claude en tareas de depuración a escala de repositorio. Sin embargo, en LiveCodeBench v6, que se centra en la programación competitiva y los retos algorítmicos, Kimi K2 Th inking sobresalió con un 83,1%, superando el 64,0% de Claude y acercándose al 87,0% de GPT-5 Las capacidades matemáticas demostraron ser especialmente sólidas cuando el modelo podía utilizar herramientas. En AIME 2025 con acceso a Python, Kimi K2 Thinking alcanzó el 99,6%, saturando prácticamente la prueba junto con GPT-5 y Claude. En la prueba GPQA-Diamond, que evalúa preguntas científicas de nivel universitario, Kimi K2 Thinking obtuvo un 85,7%, ligeramente por delante del 84,5% de GPT-5 La salsa secreta: Orquestación de herramientas a largo plazo Quizá el logro técnico más impresionante de Kimi K2 Thinking sea su capacidad para ejecutar entre 200 y 300 llamadas secuenciales a herramientas sin intervención humana. La mayoría de los modelos anteriores perderían coherencia o se desviarían de la tarea después de 30 o 50 pasos, pero este sistema mantiene un comportamiento orientado a objetivos a lo largo de cientos de acciones Esta capacidad se debe al método de entrenamiento del modelo. En lugar de tratar el uso de herramientas y
La IA para necesidades personales está en todas partes, pero ¿deberías dejarla entrar en tu cabeza?

Last Updated on octubre 14, 2025 1:02 pm by Laszlo Szabo / NowadAIs | Published on octubre 14, 2025 by Laszlo Szabo / NowadAIs La IA para necesidades personales está en todas partes, pero ¿debería dejarla entrar en su cabeza? – Notas clave – Adopción masiva a pesar de las preocupaciones: El mercado de la salud mental de la IA ha alcanzado los 1.800 millones de dólares en 2025, con más de 500 millones de personas descargando apps de acompañamiento de IA para apoyo emocional, guía de fitness y coaching de vida. Este crecimiento explosivo se produce a pesar de las preocupaciones generalizadas sobre la privacidad y un aumento del 56% en los incidentes de privacidad de la IA, lo que revela una tensión entre las necesidades personales inmediatas y la seguridad de los datos a largo plazo. – Revolución de la accesibilidad con limitaciones: La IA para las necesidades personales democratiza el acceso al apoyo de la salud mental, el coaching de fitness y los recursos de desarrollo personal a una fracción de los costes tradicionales y con disponibilidad 24 horas al día, 7 días a la semana. Estas herramientas colman las lagunas de los sistemas sanitarios y de bienestar, sobre todo para las personas con limitaciones económicas, dificultades de horarios o ansiedad social. La tecnología sigue siendo inaccesible para las poblaciones económicamente desfavorecidas que más podrían beneficiarse, lo que plantea nuevos problemas de equidad. – Futuro híbrido humano-TI: En lugar de sustituir a los profesionales humanos, la IA parece estar creando un sistema complementario en el que los algoritmos se encargan del apoyo rutinario y el desarrollo de habilidades, mientras que los humanos se centran en casos complejos y en un trabajo terapéutico más profundo. Los usuarios muestran preferencias en función del tipo de necesidad: el 32% está abierto a la terapia basada en IA, mientras que el 68% sigue prefiriendo a los terapeutas humanos. El enfoque más eficaz probablemente implique saber cuándo la IA sirve mejor a los usuarios y cuándo la experiencia humana sigue siendo esencial. El socio silencioso del bienestar en el bolsillo Algo inusual está ocurriendo en el mundo del bienestar personal. Millones de personas abren sus teléfonos a las dos de la madrugada, no para navegar por las redes sociales, sino para compartir sus angustias más profundas con una inteligencia artificial. Hablan de depresión, problemas de pareja y miedos existenciales con compañeros digitales que nunca duermen, nunca juzgan y nunca envían una factura. El mercado de la inteligencia artificial para la salud mental se ha disparado hasta los 1.800 millones de dólares en 2025, con una carrera hacia los 11.800 millones en 2034. Más de 500 millones de personas han descargado aplicaciones de acompañamiento de IA para obtener apoyo emocional. Ya no se trata de una tendencia tecnológica, sino de un cambio fundamental en la forma en que los seres humanos buscan ayuda en sus momentos más vulnerables. El auge de la IA para las necesidades personales representa algo más profundo que la comodidad. La terapia tradicional conlleva listas de espera de meses, tarifas por hora que superan los 200 dólares y la carga emocional de concertar citas en horas de trabajo. Las herramientas de IA para la salud mental como Woebot, Wysa y Replika ofrecen acceso 24 horas al día, 7 días a la semana, por una fracción del coste. Proporcionan respuestas inmediatas cuando se producen ataques de pánico a medianoche o cuando la soledad se hace insoportable los domingos por la tarde. Estos terapeutas digitales no sustituyen a los profesionales humanos, pero están llenando vacíos que el sistema sanitario tradicional ha dejado abiertos durante décadas. Cuando los algoritmos se convierten en entrenadores personales El sector del fitness ha descubierto que la IA para necesidades personales va mucho más allá del apoyo a la salud mental. Las aplicaciones de fitness con IA aprovechan ahora los algoritmos de aprendizaje automático para crear experiencias de entrenamiento personalizadas que se adaptan en tiempo real al rendimiento del usuario, sus niveles de fatiga y sus necesidades de recuperación. Aplicaciones como FitnessAI analizan los datos de 5,9 millones de entrenamientos para optimizar las series, las repeticiones y el peso de cada ejercicio. La tecnología va más allá de la simple automatización: aprende las respuestas de tu cuerpo, predice cuándo es probable que te saltes entrenamientos y ajusta la intensidad en función de la calidad del sueño y los niveles de estrés registrados a través de dispositivos portátiles. Lo que hace especialmente atractivos a estos entrenadores de fitness con IA es su capacidad para democratizar una experiencia antes reservada a los clientes adinerados. Los entrenadores personales que cobran 100 dólares por sesión están siendo complementados (y a veces sustituidos) por sistemas de IA que cuestan menos de 10 dólares al mes. Aplicaciones como Freeletics y Athletica proporcionan información en tiempo real sobre la forma física, notificaciones push programadas para maximizar la motivación y cálculos de sobrecarga progresiva que requerirían una gran experiencia humana. La IA no se limita a decir lo que hay que hacer, sino que explica por qué, enseñando a los usuarios a entender su cuerpo mientras crean hábitos de fitness sostenibles. La personalización se extiende a la planificación nutricional, en la que la IA analiza las preferencias dietéticas, las alergias, los datos metabólicos e incluso los patrones de compra para crear planes de alimentación que se adapten a la vida real. Estos sistemas realizan un seguimiento de la ingesta de micronutrientes, sugieren modificaciones en las recetas y ajustan automáticamente los objetivos calóricos en función de los niveles de actividad. Para las personas con enfermedades crónicas como la diabetes o trastornos autoinmunes, la inteligencia artificial se convierte en una necesidad médica, ya que proporciona orientación para evitar complicaciones peligrosas y hace que el ejercicio sea agradable en lugar de aterrador. El coaching vital se digitaliza Más allá del fitness y la salud mental, la IA se ha infiltrado en el ámbito del coaching vital y el desarrollo personal con una eficacia sorprendente. Los entrenadores digitales