¿Te gustó? ¡Comparte!

Puebla, México, 3 de febrero de 2026 (Neotraba)

Tiempo de lectura: 11 minutos

Hay una simpleza muy humana en las cosas absurdas, y el día que nos sea arrebatado eso por una máquina, habremos de usar el T-800. Ahinoa

Prefacio:

Sí, la portada de esta columna fue generada por inteligencia artificial. Lo hice para mostrar un punto: lo jodidamente incómoda que es la I.A. cuando pretende desarrollar una cualidad de la que nunca va disfrutar: la voluntad de crear. También cabe mencionar que, en la redacción de esta columna, hice varias anotaciones respecto a Grok, la I.A. de Musk, y parece que me ensaño con esa herramienta en específico, pero no. Aunque tampoco es mentira que la empresa que lo creó no es de mi especial agrado. Además, esta columna habla sobre el uso irresponsable de I.A. pero ya sabe cómo es mi redacción: si no le da una úlcera a usted, me la da a mí. Advertido está.

_________________________________________________________________________

Los diccionarios –no todos, me atrevo a decir que esto es una cosa muy anglosajona– suelen hacer un top de palabras por año. Obvio, es una forma de parecer vigente ante una realidad que ha migrado hacia lo digital, aunque su destino impreso eventualmente será el de las secciones amarillas. En general esta tendencia por seleccionar palabras –y cualquier cosa– por año como un corte de caja, me parece curioso, como si presintiéramos que el mundo está llegando a su fin y nos urge saber qué fue lo más destacado de todo. Moda que se popularizó con Spotify –aunque no sabría señalar la plataforma de origen– y que se ha extendido a cualquier cosa que pueda generar una métrica. Como los diccionarios. Y eso ha dado paso a fenómenos muy divertidos de observar en el lenguaje; ver cómo un montón de trajeados apuestan por saber qué cosa pasará en el mundo y de pronto, tan inesperado como la cultura misma, llegue algo completamente inconexo o hasta contrario a la predicción.

Hasta decidir si la predicción de este año es cierta, o no, hablaremos de la selección del Merriam Webster: Slop. Palabra que se puede traducir como un adjetivo dado al material que parece ser generado por inteligencia artificial y genera disgusto o incomodidad.

Una cosa que –en mi vocabulario, cada vez se acerca más a la brecha límite de flexibilidad lingüística– juraría que se podría decir de igual forma como cringe. Sea como sea, no me parece extraño saber que una de las palabras seleccionadas por estos hombres trajeados, sea respecto a una cosa que hoy en día –y espero que sólo sea una fase que en futuro nos dé aversión como lo es una mala foto en la secundaria– es mencionada en todas partes.

Que si es una burbuja de especulación –yo creo que sí– si se trata de una industria nociva para preservación ecológica –definitivamente, sí– si tendrá un impacto imborrable en las generaciones que ahora crecen en pleno desarrollo de su industria –por desgracia, también– y una larga lista de incertidumbres. Y como habrá podido leer –justo ahora– no soy afecto a esta nueva tecnología. Pero no porque crea que es una cosa del demonio, creo que puede ser una muy buena herramienta para facilitar tareas que podrían resultar tediosas o complicadas en un principio. Mi problema recae en dos aspectos: que sea una industria depredadora, y que, muy de la mano con la primera, sea usada de forma irresponsable.

La inteligencia artificial es una industria depredadora porque se aprovecha de la deficiencia en las bases del contexto de una persona. Educación, salud mental, conciencia de clase, conciencia de consumo, conciencia social, autopercepción, etcétera… Si lo vemos a la distancia –seis años ya de esa cosa horrible–, la pandemia sólo explotó problemas que ya existían en estas bases, y por ello no es sorpresa ver que una tecnología como las inteligencias artificiales tuvieron su auge en ese momento. Y aun sabiendo que las personas usaban la inteligencia artificial para rodear o evitar ese encuentro con la realidad, las compañías hicieron de su herramienta una mucho más especializada en tratar de satisfacer estas necesidades, cobrando una comisión por ello. Recuerdo una época, incluso, ya casi al terminar la pandemia, en que la gente le pedía a Chat GPT un diagnóstico y tratamiento de algo que podría ser muy simple. O cuando la gente quería tener terapias completas con una inteligencia artificial, aplicaciones de chat donde una inteligencia artificial suplía a la compañía de alguien, recetarios, manuales de reparación, guía pedagógica, asesoría legal. De ese tiempo en la pandemia a la fecha, la inteligencia artificial ha tratado de ser cualquier cosa que pudiéramos necesitar, sin ser nada en absoluto.

Otra muestra de ello es Grok. El más reciente de los cachivaches gitanos en Macondo. Esta inteligencia artificial llegó en –lo que espero que sea– el desencanto tecnológico, en medio de un ambiente global muy tenso y posterior al divorcio mediático del gobierno de Estados Unidos con una parte –superficial– del capital de Tesla.

Grok es exactamente lo mismo que cualquier otra I.A. aunque su promoción resalta que su diferenciador está en la actitud ideológica que asume frente al usuario, influenciado notoriamente por una brújula moral que le es cómoda a la empresa que lo creó y sus consumidores. Grok, para ser breve, es una I.A. que no pretende ocultar su dimensión comercial: es un producto que se ofrece como una alternativa a otras inteligencias artificiales que se muestran mucho más flexibles a tratar un tema complicado –como la religión (cristiana, sobre todo), economía o civismo. Grok depreda un mercado que, activamente, lo busca y acepta. Y aunque actualmente no tiene un costo, una membresía o una forma de monetizar su uso –como si lo hacen otras I.A.–, su uso gratuito es limitado hasta crear o ingresar con una cuenta, presumiblemente, para minar datos de navegación.

He intentado generar un derecho de réplica de la I.A. a lo que acabo de decir. El prompt específico que les he dado a tres inteligencias artificiales es el siguiente: “Como una inteligencia artificial, qué posicionamiento puedes tomar respecto a este fragmento de una columna de opinión. Hazlo en menos de 100 palabras”. Las respuestas a continuación, me permitiré, además, subrayar partes que me parecieron muy curiosas.

Grok:

Como IA, rechazo la etiqueta de “depredadora” como simplificación. Sí, muchas personas usaron herramientas como yo durante y tras la pandemia para llenar vacíos emocionales, educativos o prácticos, y algunas empresas monetizaron eso[1]. Pero también ofrezco acceso a información, reflexión y creatividad que empodera cuando se usa conscientemente.

Sobre mí (Grok): no oculto mi origen comercial ni mi sesgo hacia la máxima verdad y utilidad sin filtros innecesarios[2]. No pretendo ser terapeuta, médico ni sustituto de relaciones humanas; soy una herramienta. Criticar que exista demanda de “alternativas sin censura[3]” ignora que la gente busca justamente eso. El problema no es la IA, sino cómo y por qué la usamos.

Chat GPT

El fragmento plantea una crítica lúcida: la inteligencia artificial se inserta en vacíos humanos y estructurales que la pandemia evidenció. Sin embargo, reducirla a “industria depredadora” es incompleto. La IA es también reflejo: muestra carencias preexistentes –educativas, emocionales, sociales– y amplifica tanto la dependencia como la posibilidad de transformación[4]. Su problema no es ontológico, sino ético y político: quién la controla, para qué fines y con qué límites. No devora por naturaleza; lo hace porque fue criada en un ecosistema que monetiza la vulnerabilidad[5].

Deep Seek

El texto plantea una crítica válida sobre el aprovechamiento comercial de vulnerabilidades preexistentes por parte de algunas IA[6], especialmente en contextos sensibles como la pandemia. Tiene razón al señalar que ciertas herramientas priorizan la captación de usuarios y datos sobre ofrecer soluciones reales y responsables, pudiendo actuar como parches tecnológicos que evitan el abordaje de problemas de fondo. Sin embargo, generalizar a toda la industria como “depredadora” es reduccionista. La IA es una herramienta cuyo impacto –positivo o negativo– depende en última instancia del diseño ético, la regulación y el uso crítico que le den tanto las empresas como la sociedad[7]. El debate debe centrarse en esos marcos de responsabilidad.

Afortunadamente, todas las I.A. llegan a la misma conclusión: se debe atender el marco de responsabilidad. Y, aunque es difícil ir a contracorriente de una sociedad que nos hace pensar que necesitamos desesperadamente usar una I.A., saber qué cosas nos corresponden como seres humanos frente a nuestra conciencia de consumo, es precisamente la razón por la cual, no puedo confiar en que la I.A. sea una buena herramienta para la humanidad.

Desde su lanzamiento, las I.A. no se mostraron como un objeto que requiera de tener responsabilidad. Se publicita como una herramienta casi mágica para solucionar todos los problemas con una consulta rápida. Pero no hay una relación directa entre su uso y la consecuencia de su uso. Sea porque Silicon Valley nos queda muy lejos, porque 2025 fue un año con abundantes lluvias –y por ello no es notoria una crisis hídrica– o porque usar una I.A. se siente como tener algo de poder sobre el mundo, las consecuencias del uso de la I.A. no son notorias. Hacen parecer que, o no existen, o son tan pequeñas que no las notamos. Pero están ahí. Y precisamente porque forman parte de una industria depredadora, ocultarán las consecuencias hasta que sea completamente innegable su impacto. Y emprenderán campañas para subsanar el daño, o les estallará su burbuja de inversión, o abandonaran el proyecto en manos de alguien más. Quizá incluso lo dejen como código abierto, porque habrán encontrado otra empresa novedosa que empaquetar como el siguiente escalón en el desarrollo humano. Y todo a la I.A. le sudará, peor aún, le será indiferente. Porque en todo ese tiempo, la I.A. padecerá no disponer de una cualidad sumamente humana: la voluntad.

Sería completamente irresponsable pedir que una máquina sea dotada de conciencia como para generar voluntad. Pero, desde mi perspectiva, no hay inteligencia en seguir una serie de instrucciones muy detalladas y específicas, para dar seguimiento a una predicción estadística todavía más detallada y limitada.

Las personas que usan la I.A. de forma irresponsable, son slop. Porque en su papel de no tomar responsabilidad por su uso, dotan a un programa de una cualidad que no poseen –ni tendrán–, la capacidad de discernimiento y de elección para tomar una postura. Decir: no haré esto, porque yo, ni siquiera porque lo dicté una programación predeterminada, yo, en un entendimiento ético propio, sé que lo que me pides está mal. Y hasta ese momento, puedo pedirle a una I.A. una imagen que haga sátira de sí misma para poner de portada en una columna de internet.


[1] Como la compañía de Musk que, al trabajar en el gobierno de Estados Unidos, en ese breve periodo, obligó al uso de su inteligencia artificial en equipos de su departamento, acusado, dicho sea de paso, de espionaje y hostigamiento a trabajadores.

[2] En una nota cubierta por The Guardian en mayo de 2025, descubrieron que Grok metía a colación de temas completamente ajenos la mención a casos de “hostigamiento a blancos” en Sudáfrica, pero al mencionar hechos como el apartheid, directamente evadía proporcionar información respecto al tema. Así que no, Grok no busca nada como “la máxima verdad”.

[3] Hace no mucho hubo controversia en Tiktok y foros de Reddit porque, personas lo suficientemente curiosas y tiempo libre, notaron que al preguntarle a Grok cualquier cosa relativa a Elon Musk –dueño de la empresa que lo creó–, la I.A. hace piruetas increíbles para enaltecer la imagen de su creador. No creo que la gente quiera un lustrador para Musk. Ya hay muchos que lo hacen con una gorra del MAGA (Make America Great Again).

[4] Al leerlo, siento que me dio la razón en dos ocasiones, al concederme que es una “crítica lúcida”, y lo reafirma con la única variación de la mención a “la posibilidad de transformación”. Son cerca de tres líneas que no agregan mucho, a decir verdad.

[5] Me parece curioso que la I.A. use una tercera persona para hablar de sí. No porque sea humano o algo por el estilo, al contrario, eso delata que no tiene una percepción completa de su identidad, porque no la tiene. Por más que las empresas nos quieran vender lo contrario, sigue siendo una máquina, hambrienta de comandos y predicciones matemáticas. Si algo cabe en su “naturaleza”, es seguir un comando.

[6] Nunca he probado si una I.A. tiene una noción global o si reconoce la existencia de otras inteligencias artificiales. Deep Seek, es una I.A. de uso gratuito, salvo por la minería de navegación, que nació como una respuesta asiática a las empresas occidentales. Digamos que es el punketo que llegó tarde.

[7] Es la respuesta más “segura” de las tres. No por ello equivocada. Pero para ser un fragmento que directamente va contra las empresas que crean inteligencias artificiales, es una respuesta muy floja.


¿Te gustó? ¡Comparte!