Este texto analiza la importancia de la información en la evolución, tanto biológica como tecnológica, revisando las contribuciones de varios autores y científicos, y criticando algunas interpretaciones ideológicas que minimizan el trabajo de Claude Shannon. El texto explora la historia de la teoría de la información, desde sus fundamentos científicos hasta su impacto en la era digital y la inteligencia artificial.
Resumen:
Ray Kurzweil y Yuval Noah Harari destacan la relevancia de la información en la evolución de especies y máquinas en sus libros.
Harari, catedrático de la Universidad Hebrea de Jerusalén, enfatiza la importancia de la información en el devenir histórico.
Kurzweil centra su visión en el impacto de la tecnología en los cambios culturales, basándose en su "ley de los rendimientos acelerados".
Los fundamentos científicos de la teoría de la información se remontan a las investigaciones de Claude Elwood Shannon en la década de 1940 en Bell, Silicon Valley.
Shannon, considerado el padre de la "edad de la información", basó sus trabajos en la estadística física y la termodinámica, utilizando el concepto de entropía.
La información se presenta como un principio de orden y desarrollo en los sistemas, con una relación inversa a la entropía.
Niklas Luhmann, desde la teoría general de los sistemas, señala que los sistemas se forman y cambian con la información.
Shannon introdujo el concepto de bit (binary information digit), atribuido a John W. Tukey, colega en Bell.
El artículo "A Mathematical Theory of Information" sentó las bases de la era digital.
El poder del bit radica en su universalidad, según Campillo en su libro "El universo en un bit".
Shannon fue profesor del MIT, contribuyendo a los primeros desarrollos en inteligencia artificial.
Marvin Minsky y Seymour Papert, maestros de Kurzweil, recuperaron el legado de Shannon en el MIT Artificial Intelligence Laboratory.
Algunos académicos iberoamericanos, como Armand Mattelart, desacreditan el trabajo de Shannon por razones ideológicas, no científicas.
Mattelart, en su libro "Historia de la información", critica la dependencia de Shannon y Norbert Wiener del US National Defense Research Comitee.
El texto argumenta que las bases de la cibernética fueron establecidas por Arturo Rosenblueth, no por Wiener, coautor del ensayo "Comportamiento, Propósito y Teleología" junto a Bigelow y Wiener.
Wiener escribió "Cibernetics or Control and Communication in the Animal and The Machine" en la Ciudad de México, dedicándolo a Rosenblueth.
Mattelart comete errores al ubicar la publicación de la "teoría matemática de la información" de Shannon y al criticar su "desatención" a la etimología de la palabra "información".
El texto concluye que la información es crucial en la evolución del homo sapiens, destacando el uso de la neurociencia por Kurzweil para explicar la evolución del cerebelo y el neocórtex.
Se critica la visión de algunos profesores latinoamericanos que etiquetan a Shannon como "estructural-funcionalista" para desestimar su trabajo.
Conclusión:
El texto argumenta que la información es un concepto fundamental en la comprensión de la evolución y el desarrollo de los sistemas, tanto biológicos