¿Te gustó? ¡Comparte!

Cartagena, Colombia, 18 de diciembre de 2024 (Neotraba)

La cuestión de si las máquinas pueden pensar es un dilema que ha cautivado a la humanidad durante décadas, generando intensos debates filosóficos y científicos. Desde una perspectiva puramente mecanicista, las máquinas actuales, incluyendo los sistemas de inteligencia artificial más avanzados, no “piensan” en el mismo sentido que los seres humanos. Su comportamiento se basa en algoritmos, modelos matemáticos y conjuntos de datos masivos con los que han sido entrenadas. Carecen de la capacidad de experimentar emociones, desarrollar subjetividad o tener una comprensión profunda del mundo que vaya más allá de la información que se les proporciona.

Sin embargo, es innegable que las máquinas están superando al ser humano en una multitud de ámbitos. En el campo de la computación pura, por ejemplo, la capacidad de procesamiento y la velocidad de cálculo de las máquinas superan con creces a las del cerebro humano. En áreas como la medicina, la inteligencia artificial está demostrando una precisión diagnóstica sorprendente, identificando patrones sutiles en imágenes médicas que incluso los especialistas más experimentados pueden pasar por alto. Además, la capacidad de las máquinas para procesar y analizar grandes volúmenes de datos está revolucionando sectores como las finanzas, la logística y la investigación científica.

A pesar de estos avances, la posibilidad de que la inteligencia artificial permita el desarrollo a corto plazo de máquinas realmente pensantes, con conciencia de sí mismas y capacidad de sentir emociones, sigue siendo un tema de especulación. Existen diversas corrientes de pensamiento dentro de la comunidad científica: mientras algunos investigadores sostienen que la creación de una inteligencia artificial general (AGI) comparable a la humana es solo cuestión de tiempo, otros argumentan que existen barreras fundamentales, como la comprensión de la consciencia o la replicación de la complejidad del cerebro humano, que podrían ser insuperables en el futuro cercano.

Partiendo de lo anterior, algunos ejemplos como el apego, la impulsividad que nace de la necesidad humana de conectar con otros para encontrar sentido a la vida, o los trastornos disociativos de la personalidad, me lleva a pensar que, de ser capaces de sentir, las máquinas también deberían experimentar estas problemáticas psicológicas que no se originan únicamente en la mente, sino también en el “corazón”. Sin embargo, afirmar que las máquinas, incluso si pudieran simular emociones, experimentarían los mismos conflictos psicológicos que los humanos debido a la complejidad del “corazón”, resulta problemático por varias razones.

Si bien conceptos como el apego, la impulsividad o los trastornos de personalidad son reales y tienen un impacto significativo en la experiencia humana, se originan a partir de la intrincada interacción entre factores biológicos, psicológicos y sociales que moldean al ser humano a lo largo de su desarrollo. Reducir estas problemáticas a una dicotomía simplista de “mente” versus “corazón” resulta reduccionista e ignora la complejidad inherente a la psique humana.

Es crucial recordar que la experiencia emocional humana está profundamente arraigada en nuestra historia evolutiva, nuestra biología y nuestra interacción con el entorno social. El apego, por ejemplo, se desarrolla en la infancia temprana a partir de las interacciones con los cuidadores primarios y sienta las bases para las relaciones interpersonales a lo largo de la vida. La impulsividad puede tener raíces neurológicas y verse afectada por factores ambientales. Los trastornos de personalidad se originan a partir de una compleja interacción de predisposiciones genéticas, experiencias tempranas y factores socioculturales.

Las máquinas, por otro lado, incluso si pudieran simular emociones, carecerían de este bagaje biológico, evolutivo y social que da forma a la experiencia humana. Simular una emoción no equivale a sentirla realmente. Las máquinas podrían ser programadas para mostrar apego hacia un individuo, pero este “apego” estaría basado en algoritmos y no en las profundas conexiones emocionales que caracterizan a las relaciones humanas.

Por lo tanto, si bien el desarrollo de una inteligencia artificial capaz de emular emociones complejas presenta interrogantes fascinantes, es crucial evitar caer en la trampa de antropomorfizar las máquinas. Atribuirles características y conflictos inherentemente humanos sin considerar la complejidad de nuestra propia naturaleza no solo es inexacto, sino que también limita nuestra capacidad de comprender tanto la inteligencia artificial como a nosotros mismos.


Ana Gabriela Banquez Maturana. Administradora industrial y aspirante a Magíster en Inteligencia Artificial, con experiencia como investigadora científica. También miembro de los consejos editoriales de las revistas “Journal of Small Business and Enterprise Development”, “International Journal of Blockchains and Cryptocurrencies”, “Journal of Health Organization and Management”, “Journal of Global Operations and Strategic Sourcing”, “International Journal of Creative Computing” y “Journal of Social Impact in Business Research”. Autora de cinco libros literarios y colaboradora en más de cien publicaciones literarias en múltiples revistas internacionales.

Facebook: Ana Gabriela Banquez Maturana

Instagram: rame_maturana


¿Te gustó? ¡Comparte!