Contra el entusiasmo hacia la IA
De los centros de datos al aula: algunas dudas razonables y escepticismo en la era de la tecnoexcitación colectiva
Acabo de salir de un taller sobre inteligencia artificial en mi centro de trabajo, una Facultad de Ciencias de la Educación, y vuelvo hacia mi despacho arrastrando una sensación extraña. El ponente estaba bien preparado. Sabía de lo que hablaba. Mostró usos concretos, respondió con criterio y la formación fue genuinamente útil para todos los que asistimos. No tengo ninguna queja con la charla. Salgo con algunos apuntes aprovechables y muchas preguntas. Pero también me quedo con un comecome, con una incomodidad que no tiene tanto que ver con lo que se explicó sino con todo lo que quedó fuera del encuadre. Noto a mi alrededor (en el profesorado, en el estudiantado, en la propia institución) cierta excitación con la IA, optimismo en demasía, una actitud que ha dejado de ser curiosidad sana para convertirse en algo más parecido al fervor teológico. Un entusiasmo que no suele preguntar por la factura de la luz, ni por la letra pequeña del entrenamiento de los modelos, ni por dónde terminan los datos que introducimos (esto un poco más, pero no tanto como debiera), ni por quién fabricó los chips, ni por qué la versión buena de todo esto cuesta veinte euros al mes. Un entusiasmo, en fin, que da por hecho que las IAs han venido para quedarse, que solo pueden ir a mejor y que quien no se suba al carro es poco menos que un brontosaurio académico con alergia al futuro. Optimismo entusiasta para usos laborales que, paradójicamente, se combina con la preocupación y el desasosiego provocados por el excesivo uso de las IAs por parte del estudiantado.
Ese ambiente me recuerda, salvando la escala obviamente (ahora es mucho mayor todo: el producto y el entusiasmo), a la fiebre de las pizarras digitales que vivimos hace quince o veinte años en el mundo educativo: todo el mundo quería una, nadie sabía muy bien para qué, y al que preguntaba si acaso no bastaba con tiza, pizarra y algo que contar se le miraba con una mezcla de lástima y condescendencia. Aquellas pizarras, por cierto, siguen colgadas en muchas aulas de mi Facultad, apagadas o funcionando solo como pantalla para proyector. Mi posición frente a parte de todo esto de las IAs ya la he ido desarrollando en semanas anteriores de esta web/newsletter y no creo que sorprenda a nadie: ni quiero quemarlo todo ni tampoco arrodillarme encantado ante cada actualización semanal de unos modelos que siempre parece que vienen a cambiarlo todo. Las máquinas, cuando funcionan, funcionan, y yo mismo las utilizo a diario. Si tuviera que ponerle un nombre a mi estado actual, me sitúo en algo que podríamos llamar un tecnoescepticismo deliberado: no rechazo la herramienta de base, pero me niego a aplaudir sus virtudes sin leer toda la letra pequeña. Y el problema de la conversación pública sobre IA en educación es precisamente ese, su miopía técnica e instrumental. Nos centramos casi en exclusiva en la ganancia inmediata de productividad (“mira, le he pedido que me haga una rúbrica o un examen tipo test y me lo ha hecho en diez segundos; mira, me ha resumido este texto perfectamente; anda, que ahora busca bibliografía correctamente y no se la inventa”) y en la “espectacularidad” sintética del resultado, dejando a oscuras la densa trastienda material, jurídica, económica y cognitiva que sostiene todo lo demás. Aceptar la herramienta sin interrogar sus condiciones de producción o sus posibles consecuencias es, creo, una forma blanda de abdicar de la responsabilidad intelectual. Y eso, al menos en una institución de Educación Superior, debería chirriar.
La insoportable pesadez de la nube y la pérdida de soberanía al no poder comprar RAM
Empecemos por lo más incómodo de aceptar: que la IA no vive en las nubes. La nube es una metáfora tan preciosa como completamente falsa. Como decíamos hace unos meses, la nube es siempre el ordenador de otro, y lo que llamamos inteligencia artificial habita en centros de datos enormes que, además, consumen cantidades obscenas de electricidad y agua. Esto seguro que lo has escuchado, estamos dando mucho la turra con ello. No quiero ponerme muy técnico ni pesado con esto (si queréis saber más sobre IA, en detalle, recomiendo leer Error500 de Antonio Ortiz), pero os dejo con algunos datos. La Agencia Internacional de la Energía publicó en 2025 un informe que revelaba que los centros de datos globales consumieron unos 415 teravatios-hora en 2024, alrededor del 1,5% de toda la electricidad del planeta1. Sus proyecciones indican que en 2030 podríamos estar cerca de los 945 TWh, una cifra equivalente al consumo eléctrico total de todo Japón. Goldman Sachs, que no es precisamente una ONG ecologista, estima un aumento del 160% en la demanda eléctrica de estos centros para esa misma fecha2. Google, además, publicó en 2025 su informe medioambiental anual con datos del ejercicio 2024. Las cifras son elocuentes: sus centros de datos y oficinas consumieron aproximadamente 8.100 millones de galones de agua (unos 30.700 millones de litros), y el consumo eléctrico de sus centros de datos creció un 27% interanual debido, principalmente, al crecimiento de la IA. Para ponerlo en perspectiva: en 2023 ese consumo hídrico era de 6.400 millones de galones, con un 95% atribuible a centros de datos. Es decir, en un solo año el consumo de agua de Google ha aumentado en torno a un 27%, y en apenas tres años se ha duplicado3. La inteligencia artificial es por tanto, como afirmaba hace unos años Kate Crawford en Atlas de IA, un sistema extractivo que empieza en las minas de litio y termina en los vertederos de hardware. Es, en esencia, industria pesada planetaria.
Pero la materialidad no se queda en el agua y la luz. Hay otra tensión menos mediática y, a mi juicio, más actual y reveladora: la de los chips. Los modelos de IA necesitan un tipo muy específico de memoria (HBM, memoria de alto ancho de banda) para funcionar. Solo tres empresas en el mundo la fabrican: SK Hynix, Samsung y Micron. Las tres tienen toda su producción vendida este 2026 y comprometida hasta 2027. Fabricar un gigabyte de HBM consume aproximadamente tres veces más capacidad de oblea de silicio que fabricar un gigabyte de memoria DDR5 convencional, la que lleva posiblemente el portátil o dispositivo con el que estás leyendo esto. Así que cuando los fabricantes redirigen sus obleas hacia el producto que les da más margen (la HBM para centros de datos de IA), la memoria para ordenadores normales escasea. Y escasear, en el lenguaje del mercado, significa encarecerse4.
Actualmente, los precios de la memoria RAM de consumo se han disparado. Kits de memoria DDR5 que costaban 135 dólares en septiembre de 2025 superaban los 400 en diciembre: un incremento del 200% en tres meses. Ahora en marzo es más incluso (si es que queda stock). Micron, uno de los tres fabricantes globales, anunció que abandonaba su marca de consumo Crucial (la que compraban los usuarios domésticos) para dedicar toda su producción a clientes de IA. Según estimaciones recogidas por varios medios especializados, el coste de la memoria podría llegar a representar cerca de una cuarta parte de la factura total de un PC, y el segmento de ordenadores por debajo de 500 dólares podría desaparecer antes de que acabe la década5.
Conviene detenerse aquí, porque esto, además de económico, es un problema de soberanía. Montar tu propio ordenador (elegir las piezas, ensamblarlas, entender cómo funciona cada componente, repararlo cuando algo falla) ha sido durante décadas una de las formas más accesibles de agencia tecnológica. No hace falta ser ingeniero: cualquiera con un destornillador, un buen tutorial y algo de paciencia podía hacerlo. Era una forma modesta pero real de no depender completamente de lo que Apple, Microsoft o cualquier otra decidieran venderte empaquetado y cerrado. Una manera de decir: este cacharro es mío, lo entiendo, puedo abrirlo y modificarlo. Esa posibilidad se está encareciendo hasta volverse, para muchos bolsillos, impracticable. Y lo que queda cuando montar tu propia máquina deja de ser viable es exactamente lo que el modelo de negocio de la IA necesita que quede: dependencia. Dependencia de servicios en la nube. Dependencia de suscripciones mensuales. Dependencia de LLMs alojados en centros de datos que no controlas, que no puedes auditar, que no puedes replicar y cuyas condiciones de uso cambian cuando a la empresa le conviene.

Hay algo perversamente circular en todo esto. La misma industria que ha encarecido la RAM hasta hacer prohibitivo el ordenador de sobremesa con capacidad real de procesamiento te ofrece, como alternativa, acceder a su inteligencia artificial por veinte dólares al mes desde un Chromebook que básicamente es un navegador tonto con teclado. Dependencia. No necesitas RAM, te dicen; la RAM la ponemos nosotros, en nuestros servidores, lejos de ti. Dependencia. Es como si alguien provocara una sequía y luego te vendiera agua embotellada con una sonrisa cuqui. La computación local (la que ocurre en tu máquina, bajo tu control, sin conexión obligatoria, sin telemetría, sin que cada consulta pase por un servidor en Dios sabe dónde) pierde terreno porque las condiciones materiales para ejercerla se están erosionando. Una ciudadanía que no puede permitirse ensamblar su propio hardware o comprar hardware que tenga capacidad de computación en local, es una ciudadanía con menos capacidad de decisión sobre sus herramientas, más cautiva de ecosistemas cerrados y más expuesta a que le cambien las reglas del juego a mitad de partida. Estamos ante un desplazamiento silencioso: del usuario que posee y comprende su máquina al usuario que alquila capacidades cognitivas ajenas sin saber muy bien dónde residen ni a quién pertenecen. Y ese desplazamiento provocado por el auge de las IAs, en una Educación Superior donde enseñamos a personas jóvenes a pensar con autonomía, debería preocuparnos bastante más de lo que parece preocuparnos.
Extracción cognitiva, colapso de los modelos, pérdida de la voz propia y aumento de la brecha social
Luego está la cuestión de con qué se alimentaron estos modelos que veneramos. Porque toda esa inteligencia que fluye cuando le pides a una IA que te resuma un artículo o que te escriba una correo electrónico no brotó del éter: fue entrenada con cantidades ingentes de texto, imagen y código que alguien, humano, en algún momento, creó. El estado jurídico de ese entrenamiento es, a día de hoy, una zona gris colosal. Hay más de setenta demandas abiertas por infracción de copyright contra empresas de IA en tribunales estadounidenses. The New York Times contra OpenAI lleva más de dos años en curso; en enero de 2026 un juez ordenó la entrega de veinte millones de registros de ChatGPT como prueba. Tres jueces federales han dictado resoluciones sobre el uso legítimo del entrenamiento con obras protegidas, y las tres apuntan en direcciones distintas. En Europa, la Directiva de Copyright permite la minería de textos y datos con fines comerciales salvo que el titular se oponga expresamente, pero los mecanismos de exclusión son precarios y muchos autores ni siquiera controlan la página donde está alojada su obra. Un tribunal alemán dictaminó en noviembre de 2025 que, aunque la recopilación inicial pueda estar amparada, la memorización de obras completas en los pesos del modelo constituye reproducción. El nudo gordiano de todo el asunto. Decir que “todo fue robo” es posiblemente una hipérbole que los tribunales no han confirmado; decir que “todo es legal” es una ficción que los tribunales tampoco avalan. Lo honesto es reconocer que estamos ante un conflicto jurídico abierto, y que las empresas de IA se construyeron primero y preguntaron después. La clásica de pedir perdón antes que permiso. Muy anglosajón6.
Hay además un problema derivado que me interesa especialmente como alguien que trabaja en una Facultad y que, por tanto, vive entre textos: el problema de la prosa sintética. Un estudio publicado en Nature en julio de 2024 demostró experimentalmente que cuando los modelos de lenguaje se entrenan con datos generados por otros LLM, sufren lo que los autores llaman colapso del modelo7. Primero desaparecen las distribuciones minoritarias (lo raro, lo excéntrico, los matices), y después el modelo converge hacia un texto cada vez más genérico, repetitivo y eventualmente incoherente. Un proceso acumulativo e irreversible. Y el problema es que internet se está llenando de texto sintético a una velocidad que hace plausible este escenario: según otro análisis de 2025, el 74% de las nuevas páginas web contenían ya contenido generado por IA8. Si me habéis leído en semanas anteriores, ya conocéis el término “mierdificación” que Cory Doctorow acuñó para describir el ciclo de decadencia de las plataformas digitales y que se aplica con escalofriante precisión a lo que puede ocurrir con la calidad del texto en la red. Si los modelos se alimentan cada vez más de su propia prosa, y esa prosa alimenta a su vez el ecosistema textual del que beberán los siguientes modelos, el resultado es una cacofonía autorreferencial: texto correcto pero muerto, lenguaje sin experiencia ni pensamiento humano detrás.
Como profesor, esto me preocupa más que casi nada. Porque lo que hacemos en educación, entre otras cosas, es enseñar a escribir porque escribir ordena el pensamiento. Y escribir o pensar es, ante todo, buscar la fricción, buscar la palabra que no viene sola, tachar y reescribir hasta que lo que dices se parezca a lo que piensas. Sin que haya un cálculo probabilístico ni consumo de tokens detrás. Un texto gramaticalmente correcto, per se, no es un buen texto. Si la herramienta que usan nuestros estudiantes genera un primer borrador impecable y carente de voz, el riesgo educativo es la atrofia de la parte del cerebro que convierte una idea vaga en un argumento propio.
A todo esto habría que sumarle una dimensión que a veces se trata como anécdota y es estructural: la diferencia entre los modelos de IA gratuitos y los de pago. El modelo gratuito de ChatGPT ofrece acceso limitado al modelo más reciente, con pocas consultas por hora y una ventana de contexto reducida. ChatGPT Plus, por veinte dólares al mes, multiplica esas capacidades: más tokens, más ventana de contexto, razonamiento avanzado, generación de imágenes, ejecución de código. La versión Pro, a doscientos dólares al mes, desbloquea todo el potencial “sin restricciones”. Lo mismo ocurre con Claude, con Gemini, con todos. El patrón freemium/premium no es nuevo, lo vemos en muchísimos productos o servicios que consumimos, pero aplicado a herramientas que, a pesar de la posible merma por ausencia de fricción, amplifican capacidades cognitivas (resumir, analizar, redactar, investigar) adquiere una dimensión que algunos ya han descrito como una posible “tercera brecha digital”9: ya no basta con tener dispositivo o conexión, sino que hay que poder pagar la versión de la IA que realmente funciona bien, o la que, en un posible futuro, no te bombardea con anuncios. Vamos, puro Charlie Brooker. Un estudiante con acceso a la versión gratuita y otro con la versión de pago no están usando la misma herramienta, no parten desde el mismo lugar. Están en escalones cognitivos distintos. Y esto, en una universidad pública, debería darnos que pensar.
Aulas blindadas, militarización algorítmica y patatas fritas baratas
La Unión Europea parece que ha intentado poner algo de orden en todo esto. La AI Act, aprobada en 2024 y de la que nos hablaron en el taller, es la regulación más ambiciosa del mundo en la materia. Y contiene cosas relevantes para quienes trabajamos en educación: desde febrero de 2025, por ejemplo, está prohibido usar sistemas de IA para inferir emociones de estudiantes en centros educativos. Prohibido. No regulado ni sometido a evaluación: prohibido. Lo cual significa que cualquier sistema de proctoring que analice el estrés, la atención o el estado emocional de un alumno durante un examen o cualquier otra práctica incurre en algo ilegal en la UE. Los sistemas de vigilancia de exámenes que se limitan a detectar comportamientos (mirar fuera de pantalla, usar materiales no autorizados) sin inferir estados emocionales no están prohibidos, pero sí clasificados como elementos de alto riesgo, lo que implica ciertas obligaciones de transparencia, supervisión humana y evaluación de impacto que entran en vigor a partir de agosto de 202610.
Pero aquí viene la contradicción que más me perturba y que habría que traer también al debate público: la AI Act exime explícitamente de su ámbito los usos militares y de seguridad nacional. Mientras Europa regula con detalle cómo puede usarse la IA en un aula, deja fuera por completo cómo se usa en un campo de batalla. Y el mismo tipo de tecnología que alimenta a ChatGPT alimenta a sistemas como Maven, el programa de IA del Pentágono cuyo contrato principal gestiona una compañía tan opaca y oscura como Palantir. Una empresa que en 2025 superó los 1300 millones de dólares de inversión militar solo en Estados Unidos, que firmó un acuerdo con la OTAN para planificación militar ese mismo año, y que también sabemos que tiene contratos verificados con el Ministerio de Defensa español (del Gobierno más progresista de la historia, ejem)11. La misma arquitectura tecnológica, regulada en el aula y desregulada en la guerra. La misma empresa vendiendo analítica de datos a un hospital público y sistemas de targeting a un ejército. Y la misma Unión Europea firmando con una mano la regulación más garantista del planeta y mirando para otro lado con la otra cuando esa tecnología se despliega en teatros de operaciones donde no hay consentimiento informado ni derecho a absolutamente nada. Solo muerte y destrucción.
La extracción masiva de datos, más que una metáfora del colonialismo, es su continuación por otros medios: las mismas lógicas de apropiación y desposesión de territorios, ahora aplicadas a la vida convertida en materia prima computacional. Pero en realidad no hace falta irse a teorías recientes para reconocer lo que está pasando. Michael Apple, en un texto que cualquier estudiante de Educación debería haber leído al menos una vez, usó la imagen de comerse unas patatas fritas baratas en un restaurante de comida rápida para explicar algo que la pedagogía crítica lleva décadas intentando hacer ver: que los actos de consumo aparentemente inocuos están insertados en cadenas globales de explotación, desposesión y daño ambiental que permanecen invisibles precisamente porque el producto final es barato, rápido y satisfactorio. Nadie, mientras moja una patata en kétchup, piensa en la deforestación que hizo posible el pasto, en las condiciones laborales de quien la frió o en la cadena logística que la puso en su bandeja por un euro con cincuenta. El trabajo de la educación, según Apple, consiste exactamente en eso: en hacer visibles esas conexiones que el mercado necesita que no veas.

Pues bien: pedirle a una IA que te resuma un artículo, que te redacte una carta de motivación o que te genere una rúbrica de evaluación en diez segundos es la patata frita barata de 2026. El producto es rápido, satisfactorio y aparentemente gratuito. Pero detrás hay centros de datos que evaporan millones de litros de agua, cadenas de suministro de chips que encarecen la RAM hasta hacer inviable que te montes tu propio ordenador, miles de millones de textos ajenos aspirados sin permiso claro, trabajadores del Sur global etiquetando datos por centavos para que el modelo aprenda qué es violento y qué no, y contratos militares que nadie mencionó en el taller del que os hablaba. La IA no es una herramienta neutra que cada sociedad moldea a su gusto. Tiene dueños, cadenas de suministro, clientes militares y un modelo de negocio que necesita que cada vez más decisiones (educativas, sanitarias, judiciales, bélicas) pasen por sus servidores. Cuando alguien en una sesión de formación dice, con toda la buena intención del mundo, que la IA es una fuerza democratizadora, fantástica para el aprendizaje y que va a transformarlo todo, posiblemente tenga algo de razón, pero conviene tener lo anterior en algún cajón de la cabeza. No para arruinar la conversación, sino para no salir del aula creyendo que lo que ocurre dentro de la pantalla ocurre en el vacío. Al fin y al cabo, si hay un sitio donde deberíamos ser capaces de ver la cadena completa detrás de la patata frita, ese sitio es la Universidad.
Planteo una cuestión que me acompaña desde que salí del taller: ¿es sostenible este modelo? No me refiero solo a lo ambiental, que también. Me refiero a una pregunta más amplia: ¿tendremos estas IAs para siempre? ¿O estamos ante un ciclo tecnológico históricamente contingente, alimentado por una inversión de capital que no es evidente que vaya a mantenerse indefinidamente, sostenido por cadenas de suministro que ya crujen y por un ecosistema textual que empieza a contaminarse de su propia producción? No lo sé. Nadie lo sabe. Pero me parece irresponsable planificar la educación del futuro sobre la premisa de que esto estará aquí eternamente y cada vez será mejor. Y me preocupa también la otra cara de la dependencia: si externalizamos la redacción, la síntesis, la búsqueda y hasta la formulación de preguntas, ¿cuánta merma intelectual somos capaces de normalizar? No quiero ser catastrofista, pero me parece una pregunta legítima de alguien que enseña a futuros maestros y maestras a pensar para ganarse la vida.
Sin embargo (y esto me parece igual de importante que todo lo anterior) hay algo paradójicamente esperanzador en toda esta saturación. Quizá la inflación de IA esté empezando a devolver valor a todo lo que, de momento, no puede automatizarse. Noto indicios dispersos, frágiles, pero reales. Un compañero que ha vuelto al examen oral después de años de tipo test, porque es el único formato donde puede distinguir a quien sabe de quien ha sabido pegar un prompt. Una estudiante que me pide una tutoría presencial, de las de sentarse y hablar media hora sin pantalla de por medio, porque dice que es lo único que le ayuda a entender lo que realmente quiere investigar en su TFG. La escritura a mano, con su caligrafía imperfecta y su lentitud productiva, reapareciendo en talleres y prácticas como si fuera una tecnología de vanguardia. El seminario donde alguien tartamudea buscando una idea que todavía no tiene forma y cuyo tartamudeo vale más que cualquier párrafo pulido por una máquina, porque lo que está pasando ahí es pensamiento en tiempo real, con cuerpo, con riesgo, con la posibilidad cierta de equivocarse. Empiezo a percibir, entre colegas y estudiantes, una revolución y reevaluación silenciosa de la presencia física, de la fricción intelectual, de los procesos que no pueden delegarse porque su valor reside precisamente en haberlos atravesado. El peso del proceso sobre el producto. La experiencia de estar ahí, pensando, sin que nadie te lo resuelva de inmediato. Como si la sobrepresencia de lo sintético estuviera generando, por contraste, un nuevo prestigio de lo artesanal, de lo humano y de lo situado. Una especie de vuelta al cuerpo después de tanta nube.
No sé si esto es un brote verde o una alucinación mía (y si alucinan las IAs, esto me lo vais a permitir). Pero me parece la única dirección desde la que tiene sentido pensar la educación en este momento: no contra la tecnología, pero sí con la conciencia clara de lo que cuesta, de quién paga por ella, de qué se pierde cuando se la abraza sin preguntas y de qué se gana cuando se elige, deliberadamente, hacer algunas cosas sin ella. Quizá la mejor respuesta a la inteligencia artificial no sea otra IA mejor, sino reivindicar todo aquello que la inteligencia artificial no sabe hacer porque no tiene cuerpo, ni historia, ni miedo a quedarse en blanco delante de un grupo de personas.
Salgo de la Facultad. Hace sol. Camino despacio. No le pido a nadie que me resuma el camino a casa.
Informe “Energy and AI” de la Agencia Internacional de la Energía (abril 2025): https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai
Informe de Goldman Sachs Research: https://www.goldmansachs.com/insights/articles/AI-poised-to-drive-160-increase-in-power-demand
Datos de consumo hídrico y energético de Google extraídos del 2025 Environmental Report de Google (datos del año fiscal 2024): https://www.gstatic.com/gumdrop/sustainability/google-2025-environmental-report.pdf | Página de presentación del informe: https://sustainability.google/google-2025-environmental-report/
Todo este percal de las obleas, la HBM y la subida de precios de la RAM está magníficamente explicado en un artículo de Tom’s Hardware cuyo titular ya lo dice casi todo: “HBM is eating your RAM”: https://www.tomshardware.com/pc-components/ram/hbm-is-eating-your-ram
Más datos sobre la subida de precios de la RAM y su impacto en el mercado de PCs de consumo en WinBuzzer: https://winbuzzer.com/2026/03/16/dram-prices-surge-180-hbm-shift-starves-consumer-supply-xcxwbn/
El mejor mapa actualizado de todas las demandas de copyright contra empresas de IA lo mantiene el blog ChatGPT Is Eating the World, con seguimiento caso por caso y un sentido del humor que se agradece entre tanta jerga legal. Para una visión de conjunto más institucional, la revisión anual de la Copyright Alliance va bien: https://copyrightalliance.org/ai-copyright-lawsuit-developments-2025/
El artículo de Shumailov et al. sobre el colapso de los modelos está disponible aquí: https://www.nature.com/articles/s41586-024-07566-y
Estudio de Ahrefs sobre la proporción de contenido sintético en la web: https://ahrefs.com/blog/what-percentage-of-new-content-is-ai-generated/
La idea de una “tercera brecha digital” en educación viene de un artículo de Michael Trucano en el think tank Brookings (2024): https://www.brookings.edu/articles/ai-and-the-next-digital-divide-in-education/
El texto completo del Artículo 5 de la AI Act (prácticas prohibidas) está disponible en: https://artificialintelligenceact.eu/article/5/. Los sistemas de IA en educación clasificados como alto riesgo aparecen en el Anexo III: https://artificialintelligenceact.eu/annex/3/.
Los contratos de Palantir con el Ministerio de Defensa español están publicados en el BOE (BOE-B-2023-33369) y fueron investigados en detalle por Newtral: https://www.newtral.es/contrato-defensa-palantir-secreto-espana/20231009/



Tremendo Ramón. Me encanta. Gracias por tu análisis tan interesante, necesario y acertado. Estoy muy de acuerdo con lo que explicas. Para mí de momento está siendo toda una herramienta de la que de otro modo sería inviable enfrentarme a ciertas inquietudes personales.
Gracias tío.
Yo creo que los brotes verdes que comentas, porque creo que es autodefensa y claro, como estar en contra. Al final, el capitalismo se las apaña para terminar vendiendenos que lo más humano, es lo mejor cuando ya éramos humanos, desde el principio. Antes de que le echarán fécula a las salchichas, o le quitarán la falsa piel a los Action Man. Ya era como debía ser.
Perdón la licencia. Es que me inspira leerte ♥️