Este texto de Paul Lara, escrito el 4 de Noviembre de 2024, analiza la postura escéptica de Apple respecto a la actual revolución de la Inteligencia Artificial (IA) generativa, contrastándola con la adopción entusiasta de otras grandes empresas tecnológicas. El autor argumenta que este escepticismo se basa en investigaciones internas que cuestionan las capacidades reales de los Modelos de Lenguaje Grandes (LLM).

Resumen:

  • Se cuestiona la inteligencia de las IA generativas, argumentando que muchos de los discursos de los desarrolladores sobrepasan las capacidades reales de la tecnología.
  • Apple, a diferencia de otras grandes empresas tecnológicas, mantiene una postura escéptica sobre la IA generativa, liderada por Tim Cook.
  • Científicos de Apple publicaron un artículo que demuestra las limitaciones de los LLM, incluso los más avanzados como el modelo o1 de OpenAI y Llama-3–8B de Meta.
  • Las pruebas realizadas por los científicos de Apple consistieron en plantear problemas matemáticos simples a los LLM, revelando una baja capacidad de razonamiento y una alta tasa de error, incluso con información adicional. Se ejemplifica con un problema de conteo de kiwis.
  • El estudio de Apple muestra que agregar información relevante a una pregunta matemática puede reducir la precisión de los LLM hasta en un 65%.
  • Lara argumenta que las aplicaciones actuales de la IA son de bajo riesgo y baja rentabilidad, limitándose a tareas como edición de fotos, resumen de llamadas y creación de dibujos simples.
  • Se presenta un ejemplo del uso de ChatGPT o1 para generar una calavera dedicada a Rogelio Ramírez de la O, secretario de Hacienda de México, que comete un error al atribuir el control de la inflación a Hacienda en lugar del Banco de México, dirigido por Victoria Rodríguez. Este ejemplo ilustra los riesgos de usar la IA en sectores como la educación.

Conclusión:

El texto de Paul Lara concluye que la actual euforia en torno a la IA generativa es exagerada, basándose en las investigaciones de Apple que revelan las limitaciones de los LLM en tareas básicas de razonamiento. El autor refuerza su argumento con ejemplos que ilustran la falta de fiabilidad y el potencial para errores significativos en aplicaciones de la IA, incluso en tareas aparentemente simples. Se enfatiza la necesidad de cautela en la adopción de esta tecnología, especialmente en sectores sensibles como la educación.

Sección: Tecnología

 Este análisis con resumen se realiza con IA (🤖) y puede tener imprecisiones. leer el texto original 📑