Prometo cambiar de tercio en el próximo post. Y es que parece que la IA me ha poseido. Solo vuelvo a escribir para atrapar ideas. Comparto esta vez mis notas de la charla del 17 de febrero de 2026 de Marga Padilla sobre inteligencia artificial en el Gaztetxe de Basauri. Ella plantea que su libro “Inteligencia Artificial: Jugar o romper la baraja” que ha publicado con la editorial Traficante de sueños es un libro militante, aunque no le queda claro de qué movimiento es militante.
Padilla comienza recordándonos que hasta la aparición de GPT, la inteligencia artificial estaba más escondida. Con GPT aparece un servicio directo, sin mediación, en lenguaje natural, donde hablamos con una máquina. Este salto tecnológico genera distintas reacciones, y ella distingue dos principales:
- Por un lado, el miedo ante la amenaza. Y no se trata de un miedo solo “de ignorantes”; todos los miedos tienen matices y necesitamos escucharlos. El problema es que el miedo, como emoción, puede dominarnos e impedirnos avanzar. La invitación es pasar del miedo al conflicto: comprenderlo, mirarlo y debatirlo.
- Por otro lado, está la entrega irreflexiva: una adopción total sin considerar impactos como el ambiental. Actualmente, alrededor del 2% de las emisiones de efecto invernadero se atribuyen a la inteligencia artificial, en un impacto comparable al de los vuelos en avión. Además, cada consulta consume recursos: los servidores se enfrían con agua, como si tiráramos un vaso de agua por la fregadera cada vez que hacemos una pregunta. A esto se suma la proliferación de centros de datos, ocupando grandes extensiones de territorio que antes eran baldíos.
También aparece la cuestión de la reapropiación del conocimiento colectivo. Herramientas como Wikipedia, sostenidas por comunidades que cuidan el saber común, pierden sentido en algún grado cuando el conocimiento se reintermedia a través de modelos de IA. Se borra la historia de quienes construyeron ese conocimiento antes que nosotros. Además, los idiomas menos hablados quedan en una posición secundaria.

Además es importante recordar que estamos ante modelos de lenguaje, no modelos de conocimiento. Responden en función de patrones estadísticos y del idioma utilizado. Por tanto, el idioma influye en el tipo de respuestas. La IA funciona como un espejo que devuelve los antivalores y sesgos de la sociedad. Es un espejo normativo.
Además está teñida de empatía y simpatía, algo que está diseñado de forma consciente para generar mayor adicción. En la competencia por la atención, este aspecto es clave. Juega con nuestro narcisismo en un mercado donde muchas empresas de IA operan a pérdidas y buscan financiación constante.
Marga Padilla propone una distinción interesante a través del ejemplo del coche. Podemos diferenciar entre:
- la tecnología base (el motor de explosión)
- y el diseño (cuántos asientos tiene, qué forma adopta, qué uso se le da).
Con la misma tecnología base se pueden hacer coches privados o autobuses. En la IA ocurre algo similar: hay que distinguir la infraestructura técnica del diseño social y político que la configura. También plantea que no existe “lA” inteligencia artificial, sino muchas inteligencias artificiales. La industria presenta la IA como un bloque homogéneo, centrado en la acumulación de datos y poder tecnológico, sin considerar otros aspectos como el impacto ecológico o social.
Ante esta situación, propone tres niveles: actuar, pensar y trastear.
ACTUAR. En el nivel de actuar, habla de la lucha política de siempre, Manifestarnos para defender nuestros derechos: Exigir registros públicos (menciona que en Euskadi y Cataluña ya existen), defender regulaciones que protejan derechos, impulsar auditorías ciudadanas y cuestionar proyectos concretos. (Se menciona el caso de Quantum Skin, una IA financiada por el Gobierno Vasco para el seguimiento de melanomas, auditada por la Fundación Civio, que detectó fallos significativos en la identificación de imágenes). También se habla de la necesidad de defender territorios frente a la expansión de centros de datos y de plantear políticas de reconversión profesional ante la desaparición de empleos (como traductores), del mismo modo que hubo reconversión industrial en otros momentos históricos. Además, reivindica modelos públicos y accesibles para la ciudadanía.
PENSAR. En el nivel de pensar, propone actualizar qué entendemos por “lo humano”. Estamos ante un cambio casi copernicano donde lo humano deja de estar en el centro. Se trata de pensar la colaboración horizontal con lo no humano, preguntarnos, por ejemplo, qué es saber y qué es enseñar hoy.
TRASTEAR. En el nivel de trastear, invita a ensuciarnos las manos con la tecnología. Habla de tecnología popular y barrial, de modelos pequeños y situados —más bicicleta que transatlántico—, de trabajar con datasets propios, de socializar el conocimiento y recuperar la potencia colectiva. Nos recuerda que no intentar la reapropiación también tiene un coste. Estas tecnologías, además, se están probando muchas veces sobre poblaciones vulnerables. Se mencionan casos como COMPAS, que toma decisiones algorítmicas con sesgos en ámbitos como medidas penitenciarias.
Conversamos sobre las personas que utilizan estos Chatbots para conversaciones “terapeúticas” pensando cómo en este momento estamos dejando rastros no solo de consumo, sino también emocionales. Y recordando que estas infraestructuras y empresas no tienen como objetivo contribuir a una sociedad más humanista precisamente.
Una IA diseñada con otros valores podría, por ejemplo, recomendar cerrar el ordenador y salir a caminar en lugar de fomentar el uso constante. Mencionaban el software de aprendizaje de ajedrez como ejemplo interesante: pone límites para no desmotivar el aprendizaje humano. Esto abre la reflexión sobre diseñar infraestructuras que no anulen nuestra acción. ¿Como podríamos diseñar un chatbot mejor?: quizá uno más lento, no disponible 24/7, más parecido a la lógica de las cestas de consumo donde la verdura llega sucia pero es mucho más sano que la limpia en una bolsa.
Xabier Barandiaran que acompañaba a Marga Padilla mencionaba el ejemplo de las comunidades Amish donde deciden que tecnología adoptan y cuál no. Llevar el debate a la calle. Porque esta tecnología ya está modificando nuestras vidas y, por tanto, es una cuestión política.