Novedades

70

Investigadores proponen nuevo enfoque para mejorar el razonamiento en modelos de lenguaje

Investigadores proponen nuevo enfoque para mejorar el razonamiento en modelos de lenguaje

Un equipo de investigadores ha presentado un enfoque innovador para mejorar el razonamiento en modelos de lenguaje, basado en la estructura molecular del pensamiento y la identificación de vínculos de interacción clave.

Modelos de lenguaje Razonamiento automático Estructura molecular Inteligencia artificial Investigación en IA
Avances en seguridad de IA: reducción de costos y mejora de la eficiencia

Avances en seguridad de IA: reducción de costos y mejora de la eficiencia

Investigadores han desarrollado un sistema de clasificación de seguridad más eficiente y robusto para modelos de lenguaje, logrando una reducción de 40 veces en el costo computacional y una tasa de etiquetado incorrecto de solo 0.05%

Seguridad IA Eficiencia Computacional Modelos de Lenguaje Clasificación de Seguridad Reducción de Costos
Investigadores presentan MHC Lite, una mejora en la estabilidad y eficiencia de las redes neuronales

Investigadores presentan MHC Lite, una mejora en la estabilidad y eficiencia de las redes neuronales

El MHC Lite, desarrollado por Yonge Yang y Jean Yang Gao, es una versión mejorada del método de hiperconexiones múltiples restringidas (MHC). Ofrece estabilidad garantizada y mayor eficiencia en el entrenamiento de modelos de aprendizaje profundo, superando al MHC original en rendimiento y facilidad de implementación.

Redes Neuronales Aprendizaje Profundo Eficiencia Estabilidad MHC Lite Inteligencia Artificial
CLAP: Avance en robótica con aprendizaje de acción latente contrastante

CLAP: Avance en robótica con aprendizaje de acción latente contrastante

Investigadores presentan CLAP, un método de pre-entrenamiento de acción latente contrastante que permite a robots aprender de vídeos humanos y realizar tareas complejas con una tasa de éxito del 61% en tareas del mundo real.

Robótica Aprendizaje Automático Inteligencia Artificial Aprendizaje de Acción Latente Tareas Complejas Robots
Investigadores de Alibaba presentan Qwen3VL, un marco de recuperación multimodal de última generación

Investigadores de Alibaba presentan Qwen3VL, un marco de recuperación multimodal de última generación

El equipo de TongueLab en Alibaba Group ha desarrollado Qwen3VL, un marco que logra mapear texto, imágenes, vídeos y documentos complejos en un espacio de embedding compartido, superando a otros modelos en rendimiento.

Recuperación multimodal Marco de embedding Inteligencia artificial Procesamiento de datos Aprendizaje automático
Investigadores encuentran método para establecer tasa de aprendizaje óptima en modelos de lenguaje a gran escala

Investigadores encuentran método para establecer tasa de aprendizaje óptima en modelos de lenguaje a gran escala

Un nuevo artículo de investigación presenta un enfoque para determinar la tasa de aprendizaje óptima en el pre-entrenamiento de grandes modelos de lenguaje, lo que resulta en mejoras significativas en el rendimiento, como un aumento del 1.28% en MMLU y del 2.23% en CMMLU.

Modelos de lenguaje Tasa de aprendizaje Pre-entrenamiento Rendimiento de IA Investigación en IA
Llega Pocket TTS, un modelo de texto a voz ligero y eficiente

Llega Pocket TTS, un modelo de texto a voz ligero y eficiente

kyutai ha lanzado Pocket TTS, un modelo de texto a voz diseñado para funcionar de manera eficiente en CPUs sin necesidad de GPUs, requiriendo solo dos núcleos. Este modelo tiene 100 millones de parámetros y puede generar habla seis veces más rápido que en tiempo real en un MacBook o PC.

texto a voz modelo ligero eficiencia en CPUs Pocket TTS generación de habla inteligencia artificial
Investigadores proponen nuevo enfoque para el tamaño de lote en entrenamiento de LLM

Investigadores proponen nuevo enfoque para el tamaño de lote en entrenamiento de LLM

Investigadores del Laboratorio de IA de Shanghai, la Universidad de Shanghai Jiao Tong y la Universidad de Fudan han desarrollado un nuevo enfoque para determinar el tamaño de lote óptimo en el entrenamiento de modelos de lenguaje a gran escala. El enfoque, que utiliza una función E de S adaptada, permite un aumento dinámico del tamaño de lote durante el entrenamiento, lo que mejora la eficiencia y la calidad del modelo.

Entrenamiento de Modelos Tamaño de Lote Modelos de Lenguaje Eficiencia Investigación en IA
Google presenta el Protocolo de Comercio Universal (UCP) para simplificar integraciones de comercio

Google presenta el Protocolo de Comercio Universal (UCP) para simplificar integraciones de comercio

Google ha lanzado el Protocolo de Comercio Universal (UCP), una herramienta diseñada para colapsar la complejidad en un único punto de integración, permitiendo a las empresas conectarse una vez y ser accesibles en todas las superficies de consumidores participantes.

Comercio Electrónico Integración de Sistemas Protocolo de Comercio Google UCP Automatización
Innovación Tecnológica Ver Fuente
Cerebras presenta GLM 4.7 con compresión REAP

Cerebras presenta GLM 4.7 con compresión REAP

Cerebras ha reducido el tamaño del modelo GLM 4.7 en un 40% manteniendo un rendimiento similar. El modelo ahora tiene 218 mil millones de parámetros y ocupa un espacio en disco menor.

Modelos de lenguaje Compresión de datos Inteligencia artificial GLM 4.7 Cerebras REAP
Pike PDF: biblioteca de Python para manipulación de PDFs con IA

Pike PDF: biblioteca de Python para manipulación de PDFs con IA

Pike PDF es una biblioteca de Python que permite la manipulación de PDFs de manera fácil y potente, gracias a su integración con QPDF y su capacidad para combinar con modelos de IA como Ollama.

Python biblioteca PDF IA manipulación de PDFs QPDF
Desarrollo de Software Ver Fuente
MCPCLI: Herramienta de código abierto para optimizar la integración de IA

MCPCLI: Herramienta de código abierto para optimizar la integración de IA

MCPCLI es una herramienta de código abierto y gratuita que busca optimizar la integración de IA en escenarios de negocios, reduciendo el consumo de tokens y mejorando la eficiencia en la carga de herramientas y APIs externas.