Novedades

72

Iquest lanza codificador LLM basado en entrenamiento de flujo de código

Iquest lanza codificador LLM basado en entrenamiento de flujo de código

El modelo, disponible en variantes de 7 a 40 mil millones de parámetros, emplea un transformador recurrente de loop y entrenamiento especializado para flujos de registro, logrando comparables scores a Claude Opus 5 con consumos de VRAM de 42 GB en su variante Q8.

Iquest LLM transformador recurrente flujo de registro consumo VRAM 40 mil millones de parámetros
Tencent HY lanza su modelo de traducción 1.5: soporte para 33 idiomas y 7 mil millones de parámetros

Tencent HY lanza su modelo de traducción 1.5: soporte para 33 idiomas y 7 mil millones de parámetros

La actualización del sistema de traducción automática de Ten cent HY habilita 33 idiomas, incluidas variantes regionales, y ofrece rendimiento optimizado, con un modelo de 16 GB que contiene 7 mil millones de parámetros.

traducción automática modelos de IA 33 idiomas 7 mil millones de parámetros Tencent 16 GB
Qwen Image 2512 Lanza Mejoras de Realismo Humano en Generación de Imágenes IA

Qwen Image 2512 Lanza Mejoras de Realismo Humano en Generación de Imágenes IA

El modelo actualizado en diciembre 2025 destaca por un realismo humano notable, con texturas de piel más naturales y un rendimiento de texto más preciso, posicionando a Qwen como un referente en tecnología de generación de imágenes.

Generación de imágenes IA Realismo humano Texturas de piel naturales IA generativa Gwen Image 2512 Avances tecnológicos
Mozilla presenta un empaquetador de modelos encoder que genera binarios autónomos

Mozilla presenta un empaquetador de modelos encoder que genera binarios autónomos

Mozilla ha lanzado una herramienta que transforma modelos de código de transformadores en ejecutables estáticos, empaquetando el modelo, tokenizador y tiempo de ejecución en un solo binario. La solución es independiente de Python, no necesita dependencias externas y puede desplegarse como servidor gRPC, HTTP o como microservicio MCP, permitiendo inferencias locales de alta velocidad, incluso en GPUs de gama alta. Esta gama de modelos encoder facilita la integración de tareas de clasificación y análisis de sentimiento sin dependencia de entornos de desarrollo complejos.

modelo transformador empaquetado binario inferencias locales gRPC GPU Mozilla
Herramientas Ver Fuente
H.Y. Motion 1: generación de movimiento humano 3D a partir de texto con un modelo de difusión de mil millones de parámetros

H.Y. Motion 1: generación de movimiento humano 3D a partir de texto con un modelo de difusión de mil millones de parámetros

Tencent y sus socios lanzan el modelo H.Y. Motion 1, capaz de convertir simples indicaciones textuales en animaciones 3D realistas. Utiliza un transformador de difusión entrenado en tres fases, combinando más de 3000 horas de datos de movimiento, un ajuste fino con conjuntos curados y aprendizaje por refuerzo humano. El resultado promete acelerar la creación de animaciones procedurales para videojuegos y producción cinematográfica.

modelo de difusión animación 3D texto a movimiento Tencent videojuegos producción cinematográfica
Nueva herramienta de  “Embed Anything” promete rendimiento y versatilidad sin dependencias de PyTorch

Nueva herramienta de “Embed Anything” promete rendimiento y versatilidad sin dependencias de PyTorch

La librería Anything Embed llega para simplificar la generación de vectores a partir de texto, imágenes o PDF, ofreciendo un flujo vectorial que separa pre‑procesamiento e inferencia para reducir latencia. Con soporte para distintas embeddings (DENCE, SPARS, ONNX, LATE) y bases de datos como Vectara, Pinecone o Milvus, permite trabajar tanto local como en la nube, sin requerir GPU o altas capacidades de RAM. Su arquitectura ligera y su compatibilidad con modelos multinivel la sitúan como una opción atractiva para proyectos de RAG y recuperación de información multimedial.

embedding RAG vectorización ONNX sin GPU latencia reducida
Herramientas Ver Fuente
OpenCode y modelo 30B a través de Ollama

OpenCode y modelo 30B a través de Ollama

Se ha anunciado la puesta en marcha de OpenCode, un agente de codificación basado en IA de código abierto que ahora se puede desplegar localmente en cualquier sistema sin necesidad de un proveedor en la nube. El proceso requiere la configuración de un entorno virtual y la introducción de la GPU para entrenar modelos de gran escala, como el 30B. OpenCode se integra con Ollama, una herramienta que simplifica la ejecución de agentes de IA localmente, y permite definir agentes mediante archivos <agent.md>, ofreciendo un esquema abierto para guiar la interacción del agente. La documentación incluye la personalización de proveedores y la elección de modelos, abriendo la puerta a aprovechar la potencia de modelos de 32k de ventana de contexto y soporte para herramientas externas en entornos de desarrollo locales.

Inteligencia artificial Código abierto GPU Modelos de lenguaje grande Entorno virtual Olama
TerraTorch abre nuevas posibilidades para el análisis geoespacial con IA

TerraTorch abre nuevas posibilidades para el análisis geoespacial con IA

La biblioteca TerraTorch, construida sobre PyTorch y Lightning, ofrece modelos preentrenados como Prithubi para tareas de segmentación semántica, regresión de píxeles y clasificación en imágenes de satélite. Su arquitectura simplifica el procesamiento de datos de observación de la Tierra, permitiendo aplicaciones en detección de inundaciones, monitoreo de la salud de cultivos, deforestación y análisis urbano, incluso con recursos limitados gracias al aprendizaje de transferencia.

geoespacial satélite segmentación semántica modelo preentrenado PyTorch observación de la Tierra
Herramientas Ver Fuente
Nvidia presenta Nitrogen, IA que domina más de mil videojuegos a partir de píxeles

Nvidia presenta Nitrogen, IA que domina más de mil videojuegos a partir de píxeles

Nvidia ha lanzado Nitrogen, un modelo de 500 millones de parámetros entrenado con 40,000 horas de videos de juego públicos. El sistema capta acciones de controladores directamente de la superposición de pantalla, generando comandos con una precisión del 96 %. Con esta arquitectura, Nitrogen puede jugar de forma autónoma en 1,000 títulos sin ajustes personalizados, marcando un hito en la inteligencia artificial adaptable a mundos virtuales.

IA Videojuegos NVIDIA Aprendizaje profundo Automatización de juegos
Nueva GUI para LLMs locales combina determinismo y monitor de recursos

Nueva GUI para LLMs locales combina determinismo y monitor de recursos

Se presenta una interfaz ligera para modelos de lenguaje que permite cargar contextos persistentes sin desplegar memoria, controla cada carga con determinismo y muestra en tiempo real el consumo de CPU, RAM, VRAM y disco. Basado en llama.cpp, la herramienta permite personalizar la personalidad del modelo y operar tanto en GPU como en CPU, facilitando la experimentación con grandes modelos de manera eficiente.

LLM locales GUI ligera monitor de recursos determinismo llama.cpp
Herramientas Ver Fuente
Stanford lanza Marin: modelo de lenguaje de 32 B parámetros con transparencia total

Stanford lanza Marin: modelo de lenguaje de 32 B parámetros con transparencia total

El Proyecto Marin, impulsado por el Centro de Investigación de Modelos de Stanford, entrega un modelo multilingüe de 32 B parámetros entrenado desde cero y compartido abiertamente. Con logs de entrenamiento, fallos, checkpoints y datos públicamente disponibles, Marin abre una vía de reproducibilidad y cooperación global, ofreciendo un rival competitivo frente a las iniciativas chinas y a la mayoría de laboratorios norteamericanos.

modelos de lenguaje modelo multilingüe transparencia total checkpoints públicos reproducibilidad
SKILLS,Anthropic presenta formato abierto para habilidades de agentes IA

SKILLS,Anthropic presenta formato abierto para habilidades de agentes IA

El nuevo sistema permite a los agentes de IA cargar y activar scripts y documentación de forma modular, capturando procesos específicos de cada organización sin depender de prompts extensos.