Autor: Hugo López Álvarez

  • Por qué nunca sabremos si una tarea fue hecha con inteligencia artificial

    Por qué nunca sabremos si una tarea fue hecha con inteligencia artificial

    Detectar con certeza si una tarea fue hecha con IA es imposible; lo importante es enseñar a los estudiantes a pensar y aprender.

    Que los estudiantes busquen atajos para hacer su tarea no es nada nuevo. Seguramente cuando eras estudiante también lo hiciste: pedías a un amigo que te prestara su tarea, copiabas fragmentos de Wikipedia o buscabas la forma de que alguien más lo hiciera por ti. Hoy no es diferente, ya que muchos estudiantes siguen buscando lo mismo, hacer más rápido sus tareas.  Quizás lo único que ha cambiado es que ahora la inteligencia artificial los ayuda.

    Uno de los usos más comunes de herramientas como ChatGPT es ser un asistente para hacer las tareas, o incluso, en algunos casos, quien haga toda la tarea.  En muchos casos a los profesores no les gusta que sus estudiantes usen estas herramientas y termina por prohibirlas, porque al final del día no cumplen con el objetivo de la tarea: reforzar lo aprendido en clase, desarrollar el pensamiento crítico y, sobre todo, aplicar los conocimientos adquiridos.

    Hoy en día, un profesor puede detectar con cierta facilidad si un estudiante copió y pegó un texto generado por IA. El estilo suele ser demasiado limpio, genérico y con una estructura repetitiva. También es común encontrar un vocabulario demasiado neutro, frases que suenan correctas pero vacías de contenido, ejemplos que no encajan con el contexto de la clase o explicaciones que repiten lo mismo con distintas palabras. Sin embargo, cada vez más estudiantes han aprendido a “humanizar” los textos: varían la longitud de las oraciones, usan una voz más personal, introducen anécdotas o cometen errores intencionales. Lo que para un detector es una “imperfección” que prueba humanidad, para un estudiante es simplemente un truco más.

    Muchos profesores están buscando una herramienta infalible que les diga con certeza si un texto fue escrito por una IA. Pero la verdad es que, ni ahora ni en los próximos años, existirá una forma de saberlo con un 100% de seguridad. La idea de una herramienta perfecta es irreal tanto técnica como conceptualmente. Los modelos de lenguaje como ChatGPT o Gemini no dejan huella digital. No copian, generan. Su función es predecir la siguiente palabra en una secuencia, basándose en millones de ejemplos. El resultado no tiene un sello artificial, sino una imitación de los estilos humanos. Esto significa que un texto creado por IA no siempre puede rastrearse de manera directa.

    Los detectores de IA disponibles en el mercado son, en realidad, clasificadores que estiman si un texto parece más humano o artificial. Esa estimación tiene dos puntos débiles: los falsos positivos, cuando un texto legítimamente escrito por un estudiante se marca como artificial y los falsos negativos, cuando un texto generado por IA pasa desapercibido.  Estos sistemas no detectan “IA”, sino busca patrones estadísticos que se imitan la forma en que también escribimos los humanos. Su funcionamiento se basa en medir la probabilidad y consistencia de las palabras, no en identificar un rastro único de la máquina que lo generó.

    A medida que la IA se vuelve más sofisticada, sus resultados se asemejan cada vez más a la escritura humana. Esto hace obsoletas las métricas en las que confían los detectores.  Si realmente quisiéramos tener una herramienta que detectara si un estudiante escribió un documento con la ayuda de la IA, las universidades tendrían que registrar previamente el estilo de escritura de cada estudiante y acumular una especie de “huella” de referencia. Pero además de ser técnicamente complejo, plantea dilemas éticos y de privacidad. Requeriría almacenar grandes volúmenes de textos personales a lo largo del tiempo además de que deberíamos asumir que el estilo de escritura de un estudiante es fijo, cuando en realidad evoluciona con la práctica y la experiencia.

    Si nunca podremos estar seguros de si un documento fue escrito con IA, ¿tiene sentido seguir intentando descubrirlo? Tal vez como profesores deberíamos dejar de obsesionarnos con tratar de identificar textos generados por ChatGPT y enfocarnos más en el proceso que en el resultado. Una tarea debe retar a los estudiantes a pensar, a demostrar que comprendieron y, sobre todo, a aplicar lo aprendido en situaciones nuevas.

    Por supuesto, esto también abre las puertas a una preocupación real, la IA puede fomentar dependencia, atrofiar la memoria y simplificar en exceso el aprendizaje. Pero también puede enseñar a los estudiantes a dialogar con la tecnología, a cuestionarla y a moldearla en lugar de simplemente hacer un copy-paste. El verdadero reto no es descubrir si un estudiante buscó un camino rápido para hacer sus tareas, sino rediseñar las clases para que el valor no esté en entregar un texto final, sino en mostrar cómo se llegó a él.

    Al menos en el mediano plazo, ninguna plataforma podrá decirnos con certeza si un artículo fue hecho con IA sin afectar la privacidad de los estudiantes. Tal vez el verdadero aprendizaje no está en entregar una tarea sino en mostrar cómo se llegó al resultado. Al final, más que tratar de atrapar a nuestros estudiantes, nuestra tarea como profesor es acompañar a los estudiantes a desarrollar una mente curiosa, crítica y capaz de dialogar con la tecnología.

  • Por qué si tienes más de 40 años debes aprender más sobre inteligencia artificial

    Por qué si tienes más de 40 años debes aprender más sobre inteligencia artificial

    Al llegar a los 40, tu experiencia en el mundo laboral te ha enseñado a no dejarte impresionar con facilidad. Eres escéptico de las soluciones mágicas y de todo lo que se vende como la próxima herramienta que transformará nuestro mundo. Has escuchado tantas veces que una plataforma llevará a tu empresa al éxito, a conseguir más clientes y a ser más productiva, que ya te has decepcionado. A veces incluso prefieres seguir trabajando como siempre lo has hecho, con esos viejos trucos que siempre funcionan.  

    Quizás te esté pasando lo mismo con la inteligencia artificial. La has escuchado por todos lados, la ves en cada presentación de nuevos productos, y siempre dicen que va a transformar nuestro mundo, pero sigues siendo escéptico y crees que eso no pasará. Usas ChatGPT, conoces sus capacidades, pero aún dudas de cómo integrarlo por completo en tu trabajo, de cómo podría encajar en los procesos de tu empresa. En el fondo sabes que, por ahora, todavía no está lista para integrarse en tu día a día.

    Es cierto, opino lo mismo: la IA no es mágica. Aunque muchos la presenten como algo capaz de hacerlo todo, la verdad es que tiene límites y carencias: se equivoca, inventa cosas, refleja prejuicios y, sobre todo, carece del contexto de cómo se hacen las cosas en tu empresa. Pensar que “lo sabe todo” es tan peligroso como creer que “va a quitarnos el trabajo”.  La realidad es otra: la verdadera capacidad de la IA no es reemplazar, sino amplificar. No viene a sustituir tu experiencia ni tus conocimientos, sino a potenciarlos. Eso significa usarla para ahorrar tiempo en tus tareas, mejorar tus decisiones y encontrar soluciones más rápido.

    Si tienes más de 40, lo que ya tienes es criterio. Has pasado por grandes cambios, has tomado decisiones difíciles, has visto qué funciona y qué no, y también te has equivocado muchas veces. Ese contexto te da una gran ventaja para aprovechar las herramientas de inteligencia artificial. Un joven puede pedirle algo a ChatGPT y creer la primera respuesta. Tú, en cambio, puedes dudar, comparar, cuestionar, ser escéptico y decidir qué sirve de verdad. La experiencia es lo que hace que la IA sea útil.

    El problema es que, a cierta edad, preferimos lo estable y evitamos lo nuevo. Repetimos lo que ya dominamos, usamos las mismas herramientas y seguimos la misma rutina. Nos convencemos de que eso basta, pero en realidad no es suficiente.  Piensa en esto: si hoy tienes 40, te quedan al menos veinte años de vida laboral. Y si miras atrás, verás que todo cambió en las últimas dos décadas: la tecnología se volvió parte de nuestra vida, las herramientas digitales nos acompañan tanto en lo laboral como en lo personal, y los algoritmos toman cada vez más decisiones por nosotros. ¿De verdad crees que los próximos veinte serán más tranquilos? Con la IA como motor, el cambio será mucho más grande

    La IA tiene un lado creativo que a veces pasa desapercibido. No solo ayuda a ahorrar tiempo, también te permite ver los problemas desde otro ángulo. Puede hacerte preguntas que no habías considerado, mostrarte opciones nuevas o inspirarte a probar algo distinto. Es como un compañero que nunca se cansa de explorar contigo. Pero la clave no está en sus respuestas, ni en creer que lo sabe todo, sino en poner tu criterio y tu experiencia en el centro de cada decisión. 

    A los 40, muchos ya dirigen equipos o toman decisiones clave en sus empresas. No entender cómo funciona la IA, sus límites y sus riesgos no solo es un problema personal: puede convertirse en un problema para todo el grupo que confía en ti. Porque, seguramente, y sin que lo notes, tu equipo ya la está usando más que tú. El problema es que el uso de estas herramientas no garantiza mejores resultados: confiar demasiado en ellas puede llevar a peores decisiones, a aplicar soluciones que no encajan con el contexto o, simplemente, a no alcanzar los objetivos que se buscan.  Tu responsabilidad no es solo aprender a usar la IA, sino dirigir la conversación sobre cómo aplicarla de manera adecuada. Pero solo podrás hacerlo si entiendes cómo funciona, porque no es una herramienta cualquiera: sus resultados dependen de los modelos mentales y de la experiencia que pongas al usarla.

    Aprender sobre inteligencia artificial después de los 40 es recordar que nunca es tarde para aprender algo nuevo y reinventarte. Claro, te puede costar más que a los 20, porque llevas años trabajando de una manera, y puede dar miedo explorar nuevos modelos mentales o encontrar distintas formas de hacer las cosas. Pero justamente por eso, es aún más importante que lo hagas: tu experiencia puede darle sentido y dirección al uso de estas herramientas.

     Los próximos veinte años de tu vida laboral pueden ser los más creativos y productivos. La pregunta es si estarás dispuesto a aprender algo nuevo o dejarás que otros lo hagan por ti. Si tienes más de 40, tu experiencia no es un obstáculo, es tu mayor fortaleza. Has aprendido a distinguir lo que funciona de lo que solo es promesa, y eso te da una ventaja enorme frente a quienes apenas comienzan. Cada semana que inviertes en aprender algo nuevos, estás asegurando tu relevancia en un mundo que cambia cada día más rápido. El futuro no es para los que más saben, sino para los que nunca dejan de aprender.

  • Un futuro sin smartphones: el nuevo dispositivo que conectará emocionalmente

    Un futuro sin smartphones: el nuevo dispositivo que conectará emocionalmente

    a semana pasada se anunció algo que, para muchos, podría marcar el inicio de una nueva era en la tecnología personal. OpenAI, la empresa detrás de la inteligencia artificial que ya usamos a diario, y Jony Ive, quien diseñó el iPhone, el iPod y el iPad, anunciaron que están trabajando en un nuevo dispositivo que promete cambiar por completo la forma en que interactuamos con la tecnología.  Según lo que ellos mismos comentaron,no tendrá pantalla, ni serán unos lentes, su objetivo será rediseñar lo que significa usar una computadora o  smartphone. Aunque hoy todo son rumores y especulaciones, y probablemente no lo veremos en el mercado antes de finales de 2026, la expectativa es alta. Solo nos queda esperar y ver qué sucede cuando se mezclen las capacidades de herramientas como ChatGPT con un dispositivo pensado para integrarse a nuestra vida de forma natural, emocional y cercana.

    Pero en realidad, creo que no importará lo que sea, sino lo que podrá hacer gracias a la inteligencia artificial. Hoy, cuando hablamos con ChatGPT usando lenguaje natural, ya tenemos pistas de lo que podría ofrecer esta nueva herramienta. Usará tu voz para comunicarse contigo, sin necesidad de pantallas ni teclados.  Sabrá quién eres, qué te gusta y cuáles son tus intereses. Incluso analizará cómo te sientes para darte justo lo que necesitas en cada momento.  No solo te responderá, sino que buscará mantener tu atención, escucharte, hablarte de la forma que prefieres, y darte la sensación de que te entiende como nadie más.  Estará diseñado con una experiencia natural, minimalista, elegante y creado para adaptarse a nuestras vidas, será un dispositivo cercano que encaje en nuestro día a día. Con acceso a una enorme cantidad de conocimiento, se convertirá en tu consejero, tu apoyo en momentos de duda, y te recordará cosas que tú mismo ya has olvidado.

    Pero aunque todo esto suene increíble, vale la pena detenerse a pensar. Porque así como este asistente podría ayudarnos, también podría alejarnos de los demás. Tener siempre a mano un compañero digital que nos escucha y nos comprende podría hacer que dejemos de buscar la compañía de personas que piensan distinto o que no siempre nos dicen lo que queremos escuchar.

    Hoy en día, ChatGPT ya es utilizado por millones de personas. No solo lo usan para tareas prácticas, sino también como terapia, como compañía emocional, para organizar sus vidas o incluso para encontrar un propósito personal.   ¿Seremos capaces de seguir siendo humanos en un mundo que nos escucha todo el tiempo?  Tal vez pronto dejemos atrás las pantallas para tener una nueva adicción: un dispositivo que nos acompaña, nos escucha, nos entiende. Si la tecnología sigue avanzando al ritmo actual, el éxito de este nuevo dispositivo parece casi inevitable: millones de personas ya confían en ChatGPT y sus capacidades, y seguramente harán lo mismo con este nuevo compañero digital.

    Sin embargo, antes de emocionarnos demasiado, vale la pena preguntarnos: ¿qué precio podríamos pagar por esta cercanía digital? La tecnología siempre ha tenido la tendencia de aislarnos. Familias enteras pasaron décadas frente a la televisión, luego frente a los smartphones y las redes sociales. Hoy en día consumimos contenido personalizado que, aunque atractivo, también nos ha vuelto menos abiertos y menos tolerantes a otras ideas. Espero que esta vez sea diferente, que no vuelva a ocurrir lo mismo, y que la tecnología no nos aleje ni nos haga perder lo que nos hace humanos.

    No se trata de rechazar la tecnología ni de negar su lugar en el futuro. Me emociona pensar en todo lo que este dispositivo podría lograr. Pero justamente por eso, no puedo evitar sentir una cierta inquietud: cuando una herramienta tiene tanto poder, también trae consigo riesgos, sombras y consecuencias que no podemos ignorar.  Tal vez este nuevo compañero digital nos ayude a mejorar nuestras vidas, a entendernos mejor, a sentirnos menos solos.  Pero espero que no nos haga olvidar lo más importante, lo que nos hace humanos: compartir silencios, abrazar diferencias y buscar compañía no solo en respuestas, sino en miradas, gestos y emociones.

  • Imposible decir adiós

    Imposible decir adiós

    na de mis metas lectoras de este año es explorar temas y autores que están fuera de mi zona de confort ya que, de cierta manera, había caído en los mismos temas de siempre.  Por si fuera poco, me di cuenta de que inconscientemente tampoco había leído una autora mujer en mucho tiempo.  Esta búsqueda de nuevos temas me llevó al libro de “Imposible decir adiós” de Han Kang, ganadora del Premio Nobel de Literatura de 2024. La autora escribe sobre temas difíciles como el dolor, la violencia o el pasado traumático, pero lo hace siempre de una forma profunda y reflexiva, algo que se refleja a lo largo del libro. La autora utiliza un estilo narrativo que no sigue un orden lineal, sino que se construye a través de fragmentos que, poco a poco, nos permiten comprender lo que están viviendo los personajes. 

    El libro trata, en esencia, sobre las pérdidas. Sobre cómo una persona puede aferrarse tanto a la ausencia de alguien que toda su vida se convierte en una búsqueda.  El libro nos muestra todo lo que una persona está dispuesta a hacer para descubrir la verdad, encontrar algo de paz y poder despedirse sabiendo lo que realmente pasó.  Esta es la historia de cómo alguien puede dedicar toda su vida a encontrar respuestas. 

    Antes de leer este libro, no tenía contexto sobre las masacres que ocurrieron en Corea alrededor de 1950, ni de cómo pueblos enteros desaparecieron y tantas personas perdieron a sus seres queridos sin siquiera poder despedirse. 

    Han Kang, ganadora del Premio Nobel de Literatura de 2024
    Han Kang, ganadora del Premio Nobel de Literatura de 2024

    La masacre de Jeju, evento histórico del cual hablan en el libro, fue una serie de levantamientos y represiones ocurridos en Corea del Sur entre 1948 y 1953 donde murieron más de 30 mil personas, todas ellas civiles. Un episodio de la historia coreana que permanece como una herida en la memoria colectiva de la región.  

    Pero la verdadera esencia del libro no está en los hechos históricos, sino en las historias personales de quienes lo vivieron, de los que perdieron seres queridos, historias que nunca fueron ni serán escuchadas.  Han Kang nos recuerda que contar lo vivido y ser escuchados es, para muchos, el primer paso la paz interior.  El dolor siempre deja huellas. La búsqueda por la verdad nos transforma, nos hace sentirnos solos y perdidos, nos hace perder a la esperanza. A veces, el dolor es tan fuerte que nos hace pensar que es imposible salir de él. «Imposible decir adiós», nos recuerda que detrás de cada tragedia hay miles de historias personales que merecen ser contadas y escuchadas. 

    Al final del libro se encuentra uno de mis fragmentos favoritos, que me hizo reflexionar en muchos sentidos.  

    Sentí su amor como un dolor sordo que me traspasaba la piel, se hundía hasta la médula de los huesos y me encogía el corazón. Fue entonces cuando supe lo mucho que duele amar a alguien. 

    Disfruté mucho el libro, y creo que, de alguna forma, todos tenemos duelos y pérdidas de personas que ya no están. A veces, nunca encontraremos las respuestas que buscamos, y quizá no haya explicaciones suficientes para entender lo que pasó. Pero el dolor no desaparece: se transforma y se convierte en parte de lo que somos ya que hay heridas que nunca cierran. A veces, lo único que podemos hacer es contar la historia, aunque nadie escuche, aunque la verdad nunca llegue.  

    Nota: La imagen de portada hace referencia a una de las últimas escenas en el libro 

  • La generación que ya no necesita a Google para buscar

    La generación que ya no necesita a Google para buscar

    Si tienes más de 40 años, seguramente tienes presente que para buscar información debes ir a Google, teclear algunas palabras clave y encontrar un listado de sitios que podrían contener lo que buscas. Tu tarea es visitar ese listado de enlaces, entrar a cada una de las páginas, analizar la información y encontrar lo que estabas buscando.   La Generación X creció con la transición digital y desarrolló hábitos de búsqueda metódicos y lineales. Cuando necesitan información, suelen acudir primero a Google, donde escriben palabras clave específicas, comparan varios resultados y evalúan la credibilidad de las fuentes antes de tomar decisiones. Este enfoque detallado y estructurado ha definido la forma en que muchas personas mayores de 40 interactúan con la información en línea. Sin embargo, esta manera de buscar está dejando de ser la norma

    Hoy en día  millones de usuarios, especialmente las nuevas generaciones, ya no piensan en términos de motores de búsqueda, sino de asistentes, interfaces conversacionales o plataformas especializadas de contenido como redes sociales. Actualmente, los usuarios buscan información, preguntan directamente, conversan y reciben respuestas sin necesidad de ir a Google.  Plataformas como ChatGPT, Perplexity o incluso Instagram y TikTok están redefiniendo lo que entendemos por búsqueda. Si bien cerca del 80% de las búsquedas globales siguen pasando por Google, ChatGPT ya representa aproximadamente el 5% y YouTube el 7%, mientras que varias plataformas emergentes comienzan a captar cada vez más atención. No estamos simplemente ante un cambio de herramienta, sino ante un nuevo lenguaje para interactuar con el conocimiento e información. 

    La Generación Z está cambiando cómo buscamos información, y más de la mitad de ellos ya está usando TikTok e Instagram en lugar de Google.  Estos jóvenes prefieren ver un video corto en TikTok sobre un restaurante que leer largas reseñas online. Buscan tendencias de moda en Instagram en vez de visitar páginas web. Les gusta más lo visual, rápido y personalizado que una lista de enlaces. Confían más en las opiniones reales de creadores de contenido que en reseñas formales. Para esta generación, las redes sociales no son solo para divertirse, sino también para aprender, descubrir y buscar información. 

    La búsqueda ya no es una actividad, sino una constante distribuida entre contextos, plataformas y formatos. Y no todo es texto, las búsquedas por voz también están creciendo y las búsquedas visuales se integran cada vez más al día a día. Con las capacidades de ChatGPT, ahora puedes capturar la imagen de un árbol, consultar qué especie es y recibir datos adicionales sobre su hábitat y características. El futuro de las búsquedas no será solo conversacional. Será también visual, auditivo y ambiental. Ya se habla de búsquedas multimodales, donde el usuario puede señalar una imagen, hablar una pregunta y recibir una respuesta compuesta de texto, video y contexto.

    Los asistentes de inteligencia artificial como ChatGPT o Claude se están convirtiendo rápidamente en herramientas preferidas para la búsqueda de información. Estos asistentes de IA permiten a las personas hacer preguntas usando lenguaje común y recibir respuestas claras y directas, sin tener que revisar varios sitios web. A diferencia de Google, estas herramientas recuerdan lo que se ha hablado antes, así que puedes hacer preguntas relacionadas sin empezar de cero. Los usuarios aprecian que pueden explicar temas difíciles de manera sencilla, resumir mucha información y ajustarse a lo que cada persona ya sabe. Para muchos, especialmente estudiantes y trabajadores que necesitan respuestas rápidas o explicaciones completas, estos asistentes se han convertido en su primera opción, usando Google solo cuando necesitan fuentes específicas.

    Google sabe que está perdiendo terreno y no tiene más opción que cambiar. Debe dejar atrás su viejo modelo de búsqueda y pensar en cómo renovarse para seguir siendo importante en un mercado que ya no funciona como antes. Google ya cuenta con  su propio agente de IA multimodal y con su Search Generative Experience (SGE), una integración de IA generativa para mostrar resultados. Pero enfrenta una paradoja, ya que cuando muestra resultados sin necesidad de ingresar a sitios web, genera menos clics, y menos clics significan menos ingresos. Al solucionar el problema del usuario en la misma página, va en contra de su modelo publicitario que lo hizo crecer.

    Durante muchos años, el SEO ( Search Engine Optimization )  se trataba de estar en las primeras posiciones de Google para obtener tráfico. Hoy, estar en los primeros lugares ya no asegura que las personas hagan clic o vean tu contenido. Con los resúmenes, las respuestas generadas por IA y las respuestas directas, muchos sitios han perdido hasta un 70% de sus clics. Las viejas técnicas como repetir palabras clave o crear páginas pensadas solo para el algoritmo ya no funcionan tan bien. Ahora es más importante que la IA te elija como fuente confiable y útil. Aparecer en una respuesta de IA vale más que estar en el primer lugar de los resultados de búsqueda. La meta ha evolucionado: ahora lo importante es ser la fuente que la IA decide mencionar cuando responde directamente a los usuarios. El éxito dependerá de adaptarse rápidamente: crear contenido que responda directamente a preguntas reales, usar formatos variados y estar presentes donde su audiencia busca información, no solo donde tradicionalmente se ha invertido en marketing. Estar ausente en los resultados generativos hoy equivale a ser invisible, tal como lo era no aparecer en Google hace algunos años.

    Para 2028, casi todos los buscadores tendrán inteligencia artificial. Google seguirá existiendo, pero será solo una opción entre muchas en un mundo de búsqueda más variado. Los usuarios usarán diferentes servicios según lo que necesiten en cada momento.Ya no nos preguntamos si Google perderá su lugar principal, sino cuánto de su poder tendrá que compartir con otros. En un futuro donde podemos buscar información a través de cualquier asistente, app o dispositivo, lo importante no será quién tiene la página más visitada, sino quién da las mejores respuestas más rápido y de forma más natural. El ganador no será quien tenga la mejor tecnología, sino quien realmente entienda lo que las personas quieren y cómo prefieren buscar información. La forma en que la nueva generación está adoptando estos cambios nos demuestra que la revolución no está en camino, ya llegó: hemos dado paso a la primera generación que encuentra respuestas sin tener que «googlear» nada.

  • Por qué el futuro de la IA está en manos de la política global

    Por qué el futuro de la IA está en manos de la política global

    Con frecuencia pensamos que el futuro de la inteligencia artificial dependerá únicamente de los avances tecnológicos, como algoritmos más eficientes o procesadores más rápidos. Sin embargo, la realidad es más compleja e inquietante, ya que parece que el futuro de la IA estará determinado tanto por el rumbo que tome la política internacional como por las ideologías que están ganando terreno en todo el mundo.

    La competencia entre Estados Unidos y China no es nueva, pero ahora tiene un nuevo capítulo enfocado en la inteligencia artificial. Ambos países entienden que quien domine la IA no solo tendrá ventajas económicas y tecnológicas, sino que también podrá imponer su visión del mundo. Esta competencia, se ha transformado en restricciones comerciales y bloqueos tecnológicos para acceder a tecnologías y plataformas importantes para el desarrollo de la inteligencia artificial.  ​Estados Unidos ha implementado restricciones a la exportación de ciertos chips de procesamiento gráfico (GPU) hacia China, entre los cuales incluye los chips NVIDIA A100 y H100. Debido a su alto rendimiento, estos chips son empleados por organizaciones como OpenAI para entrenar modelos avanzados de IA, lo que explica su relevancia estratégica y las restricciones impuestas por Estados Unidos.   La principal preocupación es que China pueda usar estos chips avanzados para mejorar sus sistemas de inteligencia artificial con fines militares y de vigilancia.   Por su parte, Beijing promulgó por primera vez, un reglamento de control de exportaciones de ciertos equipos mostrando también que usará sanciones comerciales en defensa de sus intereses. 

    Estas restricciones se han dado también debido a que las empresas occidentales como Open AI han empezado a perder terreno frente a sus competidores chinos. DeepSeek ha sorprendido al mundo con su capacidad para desarrollar modelos de IA altamente eficientes a pesar de las limitaciones en acceso a hardware avanzado. La empresa china ha logrado innovar en técnicas de entrenamiento, optimización de recursos computacionales y arquitecturas de modelos que requieren menos potencia de procesamiento.Por si fuera poco, OpenAI ha solicitado formalmente al gobierno de Estados Unidos que bloquee el acceso a modelos de inteligencia artificial desarrollados en China, argumentando posibles riesgos para la seguridad nacional. La preocupación se intensifica debido a que la legislación china obliga a las empresas a compartir datos sensibles con el gobierno, lo que podría facilitar el acceso estatal a información estratégica, tecnológica o personal obtenida a través de sistemas de inteligencia artificial, aumentando así el riesgo de espionaje, vigilancia masiva o uso indebido de estas tecnologías con fines geopolíticos.

    La rivalidad China-Estados Unidos en IA, ha pasado de la retórica a acciones concretas de desacoplamiento tecnológico, competencia regulatoria y carrera armamentista digital. 

    Esta rivalidad y la intensa competencia por liderar la carrera de la inteligencia artificial podría resultar en una reducción en las regulaciones para el desarrollo y uso de estas tecnologías. Aunque el desarrollo de la inteligencia artificial promete grandes beneficios, también conlleva riesgos. Personas o gobiernos podrían utilizarla con fines perjudiciales; podríamos perder privacidad al compartir datos sin control; confiar en sistemas mal entrenados o con sesgos; e incluso volvernos excesivamente dependientes de ella en nuestra vida cotidiana.Ante estos riesgos, resulta importante que los gobiernos establezcan marcos regulatorios para el desarrollo y uso de la inteligencia artificial, con el objetivo de prevenir posibles escenarios adversos. Estas regulaciones son necesarias debido al ritmo tan rápido con el que avanzan estas tecnologías. 

    No obstante, esta visión no es compartida por todos los países, lo que genera disparidades en su enfoque y nivel de control.  En fechas recientes, durante el “Artificial Intelligence Action Summit” realizado en París, el vicepresidente de Estados Unidos JD Vance expresó una postura crítica hacia las regulaciones internacionales sobre la inteligencia artificial, argumentando que una regulación excesiva podría “frenar a una industria transformadora” y que aplicar moderación de contenido a los sistemas de IA sería una forma de postura autoritaria.  De algún modo, esta postura nos dice que Estados Unidos podría estar dispuesto a sacrificar ciertas regulaciones con tal de avanzar en su objetivo de mantener el liderazgo tecnológico a nivel global. El futuro de la inteligencia artificial depende de encontrar un equilibrio entre la innovación y un marco regulatorio adecuado. Es importante avanzar tecnológicamente sin comprometer nuestra autonomía, privacidad y bienestar. Sin embargo, los intereses políticos por liderar la carrera tecnológica podrían poner en riesgo este balance.

    La IA también refleja los valores e ideologías de quienes las desarrollan y las sociedades donde se implementan. Hoy en día existe un debate sobre los sesgos y lineamientos ideológicos presentes en los modelos de IA y cómo estos podrían influir en la cultura y la política. Es un hecho que los modelos desarrollados en Occidente presentan sesgos políticos; algunos tienden a favorecer posturas alineadas con los partidos Republicano o Demócrata en Estados Unidos, así como con líderes de izquierda en otros países o con visiones conservadoras del mundo, entre muchas otras perspectivas. Estas inclinaciones se atribuyen en parte a los datos de entrenamiento ( que en muchos casos representan visiones de entornos académicos y medios digitales) y los procesos de moderación realizados por las compañías. 

    Del lado de China, la ideologización es explícita y definida por el estado. Los modelos como DeepSeek  incorporan las líneas rojas del Partido Comunista de no cuestionar al gobierno y no admitir consultas sobre temas como Tiananmen u Hong Kong en términos contrario a los de la narrativa oficial.  Las inteligencias artificiales desarrolladas en China suelen actuar como extensiones de la propaganda estatal, diseñadas para reforzar la narrativa del Partido Comunista y evitar cualquier contenido que contradiga la línea oficial. Por otro lado, las IA occidentales, aunque presentadas como neutrales, no están exentas de sesgos: reproducen y amplifican los valores liberales-democráticos dominantes en Silicon Valley, filtrando la realidad a través de una visión ideológica que muchas veces excluye o distorsiona otras perspectivas culturales o políticas. En ambos casos, las máquinas no son realmente objetivas; son espejos de los poderes que las entrenan

     Las ideologías integradas en los modelos de inteligencia artificial podrían tener un profundo impacto en el futuro de esta tecnología. Existe el riesgo de una fragmentación del conocimiento: si cada país o grupo social utiliza IAs alineadas con su propia visión del mundo, las personas recibirán respuestas radicalmente distintas a las mismas preguntas, dependiendo del sistema que consulten. Este fenómeno podría conducir al surgimiento de burbujas informativas automatizadas donde las IAs refuerzan las creencias preexistentes de los usuarios, similar a lo que actualmente ocurre con el contenido personalizado que consumimos en las redes sociales. OpenAI, DeepMind y Anthropic han invertido en investigaciones alineadas que buscan que los modelos sigan instrucciones humanas éticas, sin embargo esto nos lleva al dilema de decir qué es ético acorde las diferentes percepciones ideológicas. Por su parte, Elon Musk ha criticado públicamente a OpenAI por desarrollar ChatGPT con lo que él califica como un enfoque «demasiado woke», al tiempo que asegura que su propia empresa, xAI, se enfoca en crear modelos libres de lo que considera sesgos políticamente correctos.

    En un escenario cada vez más polarizado, los países podrían verse obligados a alinearse con ecosistemas tecnológicos que reflejen sus valores predominantes o sus alianzas estratégicas. América Latina, por ejemplo, podría enfrentarse a la disyuntiva de adoptar modelos desarrollados por potencias como Estados Unidos o China, cada uno con sus respectivas cargas ideológicas, o invertir en el desarrollo de plataformas regionales que incorporen perspectivas y valores propios

    Para entender el futuro de la IA debemos ir más allá de los aspectos tecnológicos y analizar las corrientes geopolíticas e ideológicas que están reconfigurando nuestro mundo. La competencia entre Estados Unidos y China, las restricciones comerciales, y las distintas visiones sobre la regulación no son temas aislados, sino factores que moldearán el desarrollo, implementación y acceso a estas tecnologías. Los modelos de IA no son herramientas neutrales; están impregnados de los valores, sesgos y visiones del mundo de quienes los crean y de las sociedades donde se desarrollan. En este escenario, la pregunta ya no es simplemente qué podrá hacer la IA en el futuro, sino quién decidirá lo que debe hacer, bajo qué principios y con qué fines.  El desarrollo de la IA irá de la mano con los cambios políticos globales y con el conflicto entre distintas formas de ver el mundo que define nuestra época.  Al final del día, el verdadero desafío no es tecnológico, sino humano: cómo preservar la diversidad de pensamiento mientras construimos herramientas que, en lugar de dividirnos, nos permitan comprendernos mejor.