ciudad mobileciudad
Iniciar sesión
Ver Ciudad en vivo

Secciones

Últimas Noticias
Espectáculos
Exclusivo
Actualidad
Cocina
Videos
Magazine
Horóscopo
Cine y Series
Qué Look
Internacional
Virales
Tecno
Música
Teatro
Los Más Clickeados

Seguinos en las redes

Ciudad MagazineTecno

Apple lanza la familia de modelos de lenguaje de código abierto OpenELM para portátiles: los detalles

Conocida como OpenELM, se trata de una familia que “utiliza una estrategia de escalamiento por capas para asignar parámetros de forma eficiente dentro de cada capa del modelo”.

04 de junio 2024, 03:20hs
Seguinos en Google

Apple lanzó la familia Open-source Efficient Language Models (‘Modelos de lenguaje eficientes de código abierto’), que ofrecen resultados precisos en dispositivos como ordenadores portátiles.

Los ofrece mediante el uso de menos tokens de entrenamiento que otros modelos de Inteligencia Artificial (IA), como OLMo.

Conocida como OpenELM, se trata de una familia que “utiliza una estrategia de escalamiento por capas para asignar parámetros de forma eficiente dentro de cada capa del modelo”.

A raíz de esto, se centra en tareas específicas y permite a los usuarios obtener resultados más precisos.

APPLE Y UNA FAMILIA COMPUESTA POR CUATRO MODELOS LLM

Esta familia está compuesta por cuatro modelos de lenguaje grande (LLM) que se presentan en diferentes tamaños.

Apple presenta la familia de Modelos de Lenguaje Eficientes de Código Abierto para dispositivos como portátiles.

Las opciones son: 270 millones de parámetros, 450 millones, 1.100 millones y 3.000 millones de parámetros. Cada uno de ellos tiene dos versiones.

Primero la preentrenamiento (‘pre-trained’) -una variante genérica entrenada con conjuntos de datos de la biblioteca CoreNet de GitHub.

Y por otro lado, la optimizada (‘instruction tuned’), ajustada e instruída para emplearla con propósitos concretos, como se explica en el documento de la investigación publicado en .

MODELOS PUESTOS A PRUEBA

Los investigadores indican que los modelos se probaron en un modelo MacBook Pro con SoC M2 Max, 64 GB de RAM y basado en macOS 14.4.1.

Además, fueron probados en un ordenador con CPU Intel i9-13900KF equipada con DDR5- 4000 DRAM y GPU NVIDIA RTX 4090 con 24 GB de VRAM.

En sus pruebas, Apple halló que OpenELM funciona de manera más eficiente que otros LLM similares, como OLMo, desarrollado por Allen Institute for AI.

UNA MEJORA DEL 2,36% DE LA PRECISIÓN

Como resultado, se enfocan en tareas específicas y brindan resultados precisos con menos tokens de entrenamiento.

Esto se debe a que el suyo ofece una mejora del 2,36 por ciento en la precisión y, a la vez, requiere dos veces menos tokens de preentrenamiento.

Finalmente, Apple admitió que OpenELM, cuyo repositorio está en Hugging Face, se ha entrenado con un conjuntos de datos disponibles públicamente y “sin ninguna garantía de seguridad”.

Esto quiere decir que “existe la posibilidad de que estos modelos produzcan resultados inexactos, dañinos o sesgados”.

Fuente: EP.

Temas de la nota

TecnoApple

Más notas sobre Tecno

Fotos en HD: 3 alternativas para compartir fotos sin perder calidad

Las mejores herramientas para descargar Series de TV

Quotex: Operar parece sencillo, pero en realidad no lo es

© 1996 - 2026, Artear

Seguinos en las redes

Últimas noticias

  • Lionel Messi y Rodrigo De Paul buscan sumar a otro campeón del mundo al Inter Miami: quién es el elegido
  • Blair en Buenos Aires: entradas para el show de la nueva voz del pop alternativo argentino
  • Marcelo Tinelli rompió el silencio sobre su romance con Rossana Almeyda: “Una mujer divina”
  • La inesperada reacción de Flor Vigna cuando le preguntaron por Luciano Castro y el dinero que le debe

Secciones

  • Espectáculos
  • Actualidad
  • Internacional
  • Exclusivo
  • Horóscopo
  • Cine y Series
  • Videos
  • Música
  • Qué Look

Sitios amigos

  • Canal (á)
  • Cucinare
  • El Doce
  • eltrece
  • Cienradios
  • Clarín
  • Grupo Clarín
  • La 100
  • La Voz del Interior
  • Mitre
  • Olé
  • Quiero Música
  • TN
  • TyC Sports
  • Vía País

Seguinos en las redes

© 1996 - 2026, Artear

Mapa del sitioAviso LegalPolíticas de privacidadMedia Kit