Novedades

70

Cinema Studio revoluciona la producción de video IA con flujo de trabajo cinematográfico unificado

Cinema Studio revoluciona la producción de video IA con flujo de trabajo cinematográfico unificado

La plataforma de Higgsfield AI presenta Cinema Studio, un estudio de IA que permite generar imágenes y videos con ajustes de cámara, lente y estilo cinematográfico en una sola interfaz. Diseñado para replicar procesos reales de filmación, la herramienta ofrece coherencia visual, control de ángulos y filtros de estilo entrenados, reduciendo la necesidad de múltiples herramientas y permitiendo ciclos de creación más rápidos.

producción de video IA cinetografía flujo de trabajo cinematográfico ajustes de cámara interfaz única
Falcon H1R-7B: lanza modelo de razonamiento híbrido con 1,5 billón de parámetros

Falcon H1R-7B: lanza modelo de razonamiento híbrido con 1,5 billón de parámetros

El Instituto de Innovación Tecnológica en Abu Dhabi anuncia Falcon H1R-7B, un modelo que combina transformadores híbridos y capas de Mamba para alcanzar un rendimiento de 1,5 billón de parámetros, superando los líderes como 232 mil millones. Con una arquitectura que reduce la complejidad cuadrática a lineal, el nuevo modelo promete mayor eficiencia y menor consumo de VRAM, marcando un hito en el desarrollo de inteligencia artificial en Oriente Medio.

modelo híbrido transformer Mamba 1 5 billones parámetros eficiencia VRAM cuadrática lineal
Claude Beads soluciona el problema de pérdida de contexto en IA

Claude Beads soluciona el problema de pérdida de contexto en IA

La ayuda de Claude se vio afectada por la pérdida de memoria durante la compresión de contexto, pero la herramienta Beads introduce un seguimiento persistente de problemas y dependencias, manteniendo decisiones arquitectónicas y tareas a lo largo de las sesiones.

Claude Beads pérdida de contexto memoria IA seguimiento persistente dependencias
MiniMax Prism: IA sin censura funciona localmente en CPU

MiniMax Prism: IA sin censura funciona localmente en CPU

El nuevo derivado de Mini Max, Prism, elimina quirúrgicamente las capas de rechazo de Winniemax M2.1, conservando sus 229 mil millones de parámetros y 256 expertos. Esta versión permite ejecutar sus funcionalidades—codificación, razonamiento de múltiples pasos y soporte multilingüe—sobre hardware local con Lama.cpp, con rendimiento limitado (≈2.8 tokens/s en CPU). Debido a la desactivación de los filtros de seguridad, su uso está restringido a investigación, pruebas de penetración y estudios de alineación de IA, y no debe desplegarse en producción.

Mini Max Prism IA sin censura CPU local Pruebas de penetración Modelos de lenguaje grande
Gas town emerge como orquestador IA para la codificación a gran escala

Gas town emerge como orquestador IA para la codificación a gran escala

La plataforma gestionará simultáneamente decenas de agentes IA, eliminando colisiones y preservando el historial de trabajo mediante un modelo de persistencia no determinista. Su arquitectura, inspirada en conceptos de Kubernetes y flujos de trabajo basados en moléculas, posiciona a Gas town como una evolución versátil del desarrollo de software asistido por IA.

orquestador IA código en paralelo persistencia no determinista Kubernetes workflow molecular automatización de desarrollo
Desarrollo de Software Ver Fuente
Luxical-One: Modelo de embeddings de texto ultra rápido que compite con transformadores

Luxical-One: Modelo de embeddings de texto ultra rápido que compite con transformadores

Luxical-One, una biblioteca de código abierto, combina la velocidad de los métodos léxicos tradicionales con la riqueza semántica de embeddings densos. El modelo genera vectores de 192 dimensiones y procesa millones de tokens por segundo en la CPU, alcanzando un rendimiento 3‑100 veces superior a alternativas basadas en transformadores. Con una arquitectura de bolsa TF‑IDF pesada y proyección lineal optimizada, LexicalOne habilita búsquedas semánticas, detección de duplicados y análisis de longitud de documentos, posicionándose como una solución eficiente para aplicaciones de IA a gran escala.

embeddings modelo de embeddings búsqueda semántica rendimiento CPU architextura TF-IDF
LLM‑D y Kubernetes: Nueva Infraestructura para Inferencias de Grandes Modelos LLM

LLM‑D y Kubernetes: Nueva Infraestructura para Inferencias de Grandes Modelos LLM

Se revela LLM‑D, una plataforma que orquesta VLLM sobre Kubernetes, optimizando la caché KV y el balanceo de carga para ofrecer baja latencia y alta escalabilidad en la inferencia de modelos profundos.

inferencia LLM Kubernetes caché KV balanceo de carga infraestructura IA
Nueva herramienta local mide consumo de VRAM en modelos GGUF

Nueva herramienta local mide consumo de VRAM en modelos GGUF

Un novedoso utilitario de línea de comandos permite estimar la memoria del GPU necesaria para ejecutar modelos de lenguaje comprimidos en formato GGUF, sin recurrir a servidores ni descargas externas.

VRAM GGUF modelos de lenguaje GPU línea de comandos
Herramientas Ver Fuente
OpenAI revela modelo de IA con circuitos escasos para mayor interpretabilidad

OpenAI revela modelo de IA con circuitos escasos para mayor interpretabilidad

OpenAI ha presentado un nuevo tipo de modelo de lenguaje que restringe las conexiones neuronales a solo unas pocas rutas, creando circuitos interpretable. Al usar esta arquitectura de “circuitos escasos”, el modelo permite rastrear el flujo de información y los patrones de aprendizaje, como la detección de bloques de código Python. Esta innovación promete revelar de manera más clara cómo las decisiones internas se forman dentro de los modelos de IA, ofreciendo una visión más transparente que las redes densas tradicionales.

OpenAI circuitos escasos interpretabilidad modelos de lenguaje transparencia de IA
Youtu-LLM - Laboratorio U2 de China expande IA a modelos de lenguaje de 2 billones de parámetros

Youtu-LLM - Laboratorio U2 de China expande IA a modelos de lenguaje de 2 billones de parámetros

El laboratorio U2, base de la empresa Tencent, anuncia su nuevo modelo de lenguaje LLM‑2, de 2 billones de parámetros, entrenado con 11 billones de tokens y diseñado para razonamiento, planificación y reflexión a través de una cadena de pensamiento de agentes. El modelo soporta 128 k de ventana de contexto y consume menos de 10 GB de VRAM en GPUs con 80 GB, superando a competitivos en pruebas de preguntas‑respuestas.

modelo de lenguaje parámetros trillones cadena de pensamiento ventana de contexto GPU 80GB rendimiento
Iquest lanza codificador LLM basado en entrenamiento de flujo de código

Iquest lanza codificador LLM basado en entrenamiento de flujo de código

El modelo, disponible en variantes de 7 a 40 mil millones de parámetros, emplea un transformador recurrente de loop y entrenamiento especializado para flujos de registro, logrando comparables scores a Claude Opus 5 con consumos de VRAM de 42 GB en su variante Q8.

Iquest LLM transformador recurrente flujo de registro consumo VRAM 40 mil millones de parámetros
Tencent HY lanza su modelo de traducción 1.5: soporte para 33 idiomas y 7 mil millones de parámetros

Tencent HY lanza su modelo de traducción 1.5: soporte para 33 idiomas y 7 mil millones de parámetros

La actualización del sistema de traducción automática de Ten cent HY habilita 33 idiomas, incluidas variantes regionales, y ofrece rendimiento optimizado, con un modelo de 16 GB que contiene 7 mil millones de parámetros.