Principles for Cognitive and Pedagogical Sovereignty

Principios para la Soberanía Cognitiva y Pedagógica

A Critical AI Framework for Higher Education

Un Marco Crítico de IA para la Educación Superior

By Diego Bonilla, Ph.D.
Por Diego Bonilla, Ph.D.

The Sword and the Shield

La Espada y el Escudo

This is a critical AI framework for higher education, organized as twelve principles — six for students, six for faculty. Each principle is tagged either sword (active, directed use of AI) or shield (protection from known harms). Four are swords; eight are shields. The current moment calls for more shield work than sword work.

Este es un marco crítico de IA para la educación superior, organizado en doce principios — seis dirigidos al estudiantado, seis al profesorado. Cada principio lleva una etiqueta: espada (uso activo y dirigido de la IA) o escudo (protección frente a daños conocidos). Cuatro son espadas; ocho son escudos. El momento actual exige más trabajo de escudo que de espada.

The urgency is concrete. In February 2026, OpenAI signed a multi-billion-dollar contract with the Pentagon. Anthropic, a comparable lab, walked away from similar negotiations over red lines on autonomous weapons and mass surveillance — and was subsequently designated a supply-chain risk by the federal government. The CSU's systemwide AI deployment runs on the vendor that accepted the contract another lab declined on ethical grounds. That is the dual-use situation we have joined.

La urgencia es concreta. En febrero de 2026, OpenAI firmó un contrato multimillonario con el Pentágono. Anthropic, un laboratorio comparable, se retiró de negociaciones similares por sus líneas rojas sobre armamento autónomo y vigilancia masiva — y posteriormente fue designado como riesgo de cadena de suministro por el gobierno federal. El despliegue sistémico de IA de la CSU corre sobre el proveedor que aceptó el contrato que otro laboratorio rechazó por razones éticas. Esa es la situación de uso dual en la que hemos entrado.

This is a signed essay. The positions are mine, not those of any institution I serve. My doctoral work at Syracuse (1998–2003) on behavioral tracking data told me, two decades ago, where the surveillance road would lead. My response then was to build the DCI Minor at Sacramento State — a six-course ICT literacy program approved unanimously by my department in 2011. My response now is this framework. The work has not changed. The tools have.

Este es un ensayo firmado. Las posturas que contiene son mías, no de ninguna institución a la que sirva. Mi trabajo doctoral en Syracuse (1998–2003) sobre datos de rastreo conductual me mostró, hace dos décadas, hacia dónde conducía el camino de la vigilancia. Mi respuesta entonces fue construir el DCI Minor en Sacramento State — un programa de alfabetización en TIC de seis cursos aprobado por unanimidad por mi departamento en 2011. Mi respuesta ahora es este marco. El trabajo no ha cambiado. Las herramientas sí.

— Diego Bonilla, Ph.D.
April 2026

— Diego Bonilla, Ph.D.
Abril de 2026

Methodology and transparency Metodología y transparencia

In the spirit of the principles that follow, I wish to disclose the collaborative process used to create this document. I served as its architect — defining the principles, selecting the evidence, contributing personal cases from my own teaching and research, and steering the ideological direction. Initial drafting was done in an agentic AI environment (Cursor) with Gemini 3.1 Pro. The final iteration — including significant voice work, argumentative restructuring, and the rewriting you are now reading — was done with Claude Opus 4.7.

En congruencia con los principios que siguen, deseo transparentar el proceso colaborativo empleado para crear este documento. Fungí como su arquitecto: definí los principios, seleccioné la evidencia, aporté casos personales tomados de mi propia docencia e investigación, y orienté la dirección ideológica. La redacción inicial se realizó en un entorno de IA agéntica (Cursor) con Gemini 3.1 Pro. La iteración final — que incluye un trabajo sustancial de voz, la reestructuración argumentativa, y la reescritura que usted está leyendo — se realizó con Claude Opus 4.7.

This document argues that AI cannot substitute for domain expertise; it requires that expertise to audit and direct it effectively. I consider the process of writing it a working demonstration of that claim. The AI served as a powerful cognitive prosthesis. The conceptual architecture, the intellectual accountability, and the final voice belong entirely to me, the human author. Any error of fact or judgment in what follows is mine.

Este documento sostiene que la IA no puede sustituir la pericia en un dominio de conocimiento; requiere de esa pericia para ser auditada y dirigida con eficacia. Considero que el proceso mismo de escribirlo es una demostración operativa de esa tesis. La IA fungió como una prótesis cognitiva poderosa. La arquitectura conceptual, la responsabilidad intelectual y la voz final me pertenecen a mí, el autor humano. Cualquier error factual o de juicio en lo que sigue es mío.

Part I: The Student Lens — Rights and Responsibilities

Parte I: La Lente del Estudiante — Derechos y Responsabilidades

A framework for students: how to harness the power of AI while protecting your own mind, data, and voice.

Un marco para los estudiantes: cómo aprovechar el poder de la IA mientras se protege la propia mente, los datos y la voz.

Student Principle 1 Principio del Estudiante 1 Shield Escudo

Undelegable Accountability

Responsabilidad indelegable

The Principle: You can delegate computation to a machine. You cannot delegate responsibility for what you submit. Whatever the tool produces, your name is the one on the work. The professional, legal, and reputational consequence lands on you.

El Principio: Se puede delegar el cómputo a una máquina. No se puede delegar la responsabilidad por lo que uno entrega. Lo que sea que produzca la herramienta, su nombre es el que aparece en el trabajo. La consecuencia profesional, legal y de reputación recae en usted.

In Practice: Verify AI outputs before submission. Check every citation. Cross-check every claim. Assume the tool will hallucinate at least once per document, and that the hallucination will be confident and well-formed. The work of verification is your work.

En la práctica: Verifique los resultados de la IA antes de entregar. Revise cada cita. Confirme cada afirmación. Asuma que la herramienta alucinará al menos una vez por documento, y que la alucinación llegará con apariencia de seguridad y buena redacción. El trabajo de verificación es su trabajo.

Read the thorough explanation Leer la explicación detallada

In 2023, a lawyer in New York was sanctioned for submitting a legal brief that cited six court cases — all of them fabricated. The lawyer had used ChatGPT to conduct the research. When the court could not locate the cases, the lawyer asked ChatGPT whether they were real. ChatGPT confirmed they were. The cases had been invented. The opposing counsel and the judge could not find them because they had never existed. The sanctioned lawyer's defense was that he had not known the tool could hallucinate. The court was unimpressed. The responsibility, the court observed, was not the tool's. The responsibility was his (Mata v. Avianca, 2023).

This is the basic structure of undelegable accountability. When you place your name on a piece of work, you are making a professional claim about that work. The claim covers not just the words but the sources, the logic, the method, and the absence of errors. You cannot distribute the claim across yourself and the tool. The tool is not a signatory. You are.

In academic contexts, the principle applies with the same force. A student who submits an essay with AI-generated citations that do not exist is responsible for the fabrication. A student who submits an AI-generated analysis repeating a well-documented biased claim is responsible for the bias. A student who submits AI-assisted work that reproduces uncredited source material is responsible for the plagiarism. "The tool produced it" is not a defense. It is an admission that you did not verify.

This is not a reason to avoid AI. It is a reason to build the habits of verification. Every claim, every citation, every name, every date, every quoted passage should be checked against primary sources before the work is submitted. Treat the AI output as a draft by a confident stranger whose work you have agreed to edit and sign. You would not sign the stranger's draft without reading it. Do not sign the AI's draft without verifying it.

The tension worth naming is access. For students with learning differences — dyslexia, language-processing differences, non-native writers working in English — AI drafting support is genuinely voice-enabling. The objection that "you should be able to write this yourself" does not apply uniformly across all students, and the framework does not make that objection. What the framework says is subtler: regardless of how much assistance a tool has provided, the responsibility to verify the content is yours. AI as scaffold is compatible with undelegable accountability. AI as unverified substitution is not. The disability accommodation expands how you work. It does not remove the obligation to stand behind the work.

The shield in this principle is your own judgment. Accountability is not a burden the framework is imposing. It is the condition that makes your degree mean something. A credential signifies the judgment of a person who can be held responsible for what they produce. If computation alone could produce the degree, the degree would be worth what the computation is worth, which is to say very little. The degree is worth what you are worth, as a person capable of verifying, judging, and signing.


References

  • Mata v. Avianca, Inc., No. 22-cv-1461 (S.D.N.Y. June 22, 2023).
  • Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). AI4People—an ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707.

En 2023, un abogado en Nueva York fue sancionado por presentar un escrito legal que citaba seis casos judiciales, todos ellos fabricados. El abogado había utilizado ChatGPT para realizar la investigación. Cuando el tribunal no pudo localizar los casos, el abogado le preguntó a ChatGPT si eran reales. ChatGPT confirmó que lo eran. Los casos habían sido inventados. La parte contraria y el juez no pudieron encontrarlos porque nunca habían existido. La defensa del abogado sancionado fue que no sabía que la herramienta podía alucinar. El tribunal no se dejó convencer. La responsabilidad, observó el juez, no era de la herramienta. La responsabilidad era suya (Mata v. Avianca, 2023).

Esa es la estructura básica de la responsabilidad indelegable. Cuando usted pone su nombre en un trabajo, está haciendo una aseveración profesional sobre ese trabajo. La aseveración cubre no solo las palabras, sino también las fuentes, la lógica, el método y la ausencia de errores. Usted no puede distribuir esa aseveración entre usted y la herramienta. La herramienta no firma. Usted sí.

En contextos académicos, el principio aplica con la misma fuerza. Un estudiante que entrega un ensayo con citas generadas por IA que no existen es responsable por la fabricación. Un estudiante que entrega un análisis generado por IA que reproduce un sesgo ampliamente documentado es responsable por ese sesgo. Un estudiante que entrega un trabajo asistido por IA que reproduce material sin crédito es responsable por el plagio. «La herramienta lo produjo» no es una defensa. Es una admisión de que usted no verificó.

Esto no es una razón para evitar la IA. Es una razón para construir hábitos de verificación. Cada afirmación, cada cita, cada nombre, cada fecha, cada pasaje citado debe contrastarse con fuentes primarias antes de que el trabajo sea entregado. Trate el resultado de la IA como el borrador de un desconocido confiado cuyo trabajo usted ha acordado editar y firmar. Usted no firmaría el borrador del desconocido sin leerlo. No firme el borrador de la IA sin verificarlo.

La tensión que vale la pena nombrar es el acceso. Para estudiantes con diferencias de aprendizaje — dislexia, diferencias de procesamiento del lenguaje, escritores no nativos que trabajan en inglés — el apoyo de redacción con IA puede ser genuinamente habilitador de voz. La objeción de que «usted debería poder escribir esto por su cuenta» no aplica de manera uniforme a todo el estudiantado, y el marco no formula esa objeción. Lo que el marco dice es más sutil: independientemente de cuánta asistencia haya aportado una herramienta, la responsabilidad de verificar el contenido es suya. La IA como andamio es compatible con la responsabilidad indelegable. La IA como sustitución sin verificación no lo es. La adaptación por discapacidad amplía cómo se trabaja; no elimina la obligación de responder por el trabajo.

El escudo en este principio es su propio juicio. La responsabilidad no es una carga que el marco imponga. Es la condición que hace que su título signifique algo. Una credencial significa el juicio de una persona que puede ser hecha responsable por lo que produce. Si el cómputo por sí solo pudiera producir el título, el título valdría lo que el cómputo vale, que es muy poco. El título vale lo que usted vale, como persona capaz de verificar, juzgar y firmar.


Referencias

  • Mata v. Avianca, Inc., No. 22-cv-1461 (S.D.N.Y. 22 de junio de 2023).
  • Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). AI4People—an ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707.
Student Principle 2 Principio del Estudiante 2 Shield Escudo

Protect Your Unique Human Voice

Proteja su voz humana única

The Principle: AI output regresses toward the statistical mean of its training data. When you let the tool write for you rather than with you, it flattens your voice into a shape the model has seen many times before. Your voice — shaped by specific experience, specific language communities, specific ways of seeing — is the part of your work that is irreplaceable. Protect it.

El Principio: El producto de la IA regresa hacia la media estadística de sus datos de entrenamiento. Cuando usted deja que la herramienta escriba por usted en lugar de con usted, la herramienta aplana su voz hacia una forma que el modelo ha visto muchas veces antes. Su voz — moldeada por experiencias específicas, comunidades lingüísticas específicas, formas específicas de ver — es la parte de su trabajo que es irremplazable. Protéjala.

In Practice: Use AI to think through a problem, organize a draft, or check for mechanical errors. Do not let it produce the sentences you will publish or submit. Write the last layer yourself. The last layer is where your voice lives.

En la práctica: Use la IA para pensar un problema, organizar un borrador o revisar errores mecánicos. No la deje producir las oraciones que usted publicará o entregará. Escriba usted la última capa. La última capa es donde vive su voz.

Read the thorough explanation Leer la explicación detallada

Read enough AI-generated prose and you begin to recognize the shape. Balanced sentences. Tidy transitions. Metaphors drawn from the same few domains. A tone that hovers between professional and friendly without committing to either. The prose is competent, which is remarkable given the mechanism — a statistical prediction engine producing text one token at a time. It is also, at scale, homogenizing. When millions of users draw from the same few proprietary models, trained on overlapping datasets, the outputs begin to converge. Bender, Gebru, and colleagues named this concern years before generative AI went mainstream: large language models are fluent because they reproduce the distributions they were trained on, and structurally biased toward whatever is densest in that distribution (Bender et al., 2021). What is in the distribution gets amplified. What is outside it fades.

Voice is what is outside the distribution. It is the part of your writing that comes from a specific family table, a specific neighborhood, a specific language spoken at home, a specific teacher who taught you to listen. The generic, globally-distributed register of commercial AI is not no voice. It is a voice — the statistical average of its training data, coded as neutral because the model has no way to recognize its own position. If you let that voice write your sentences, the sentences belong to the model, not to you.

The homogenization has a direction. The dominant training corpora are overwhelmingly English, overwhelmingly US-centric, and biased toward the kinds of writing — corporate, academic, journalistic — that were digitized at scale. Latin American voices, regional dialects of Spanish and Portuguese, indigenous-language speakers, local rhetorical traditions: these are underrepresented in the training data and, therefore, in the output. The uncritical adoption of Anglophone AI tools in regional education functions as a subtle form of digital colonialism — not because any individual prompt forces users to abandon their voice, but because the structural pull toward the statistical center gradually erodes the linguistic and rhetorical distinctiveness that regional scholarship depends on.

The practice that protects voice is disciplined use. AI can be useful for thinking through a problem, organizing a draft, checking for mechanical errors, exploring an unfamiliar literature. None of those tasks requires letting the tool write your final sentences. Write the last layer yourself. The last layer is where your specificity lives — the word choices your advisor will recognize as yours, the cadence your family will hear in your voice, the turns of phrase you earned through reading and thinking. That layer is non-transferable. It is the thing no model can give you, because no model knows who you are.

A tension worth naming. For students whose voice has been constrained by a standardized educational system — students with dyslexia, students writing in a second or third language, students whose formal education was interrupted — AI assistance can function as voice expansion rather than voice flattening. The student who cannot produce the surface structure of academic prose without support is not voiceless. They are a voice without a tool. AI as scaffold can let that voice land on the page in a form the academy will read. This is not the same as AI writing in place of the student. The distinction is whether the thinking, the perspective, the argument are the student's, and whether the final sentences carry the student's choices. When AI is a scaffold for a voice that already exists, voice is expanded. When AI is a substitute for thinking the student has not done, voice is flattened. The framework protects the first and refuses the second.

The shield in this principle is discipline: the discipline of letting AI help you think and refusing to let it think for you. Your voice is what your degree is supposed to develop. It is the thing that will distinguish your work in your career, your research, your teaching, your family, your community. Do not surrender it to a model that cannot know you are the one speaking.


References

  • Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21), 610–623.

Lea suficiente prosa generada por IA y empezará a reconocer la forma. Oraciones balanceadas. Transiciones prolijas. Metáforas tomadas de los mismos pocos dominios. Un tono que oscila entre lo profesional y lo amable sin comprometerse con ninguno. La prosa es competente, lo que resulta notable dado el mecanismo: un motor de predicción estadística que produce texto un token a la vez. También es, a escala, homogeneizante. Cuando millones de usuarios toman de los mismos pocos modelos propietarios, entrenados con conjuntos de datos superpuestos, los resultados empiezan a converger. Bender, Gebru y colegas nombraron esta preocupación años antes de que la IA generativa se volviera masiva: los grandes modelos de lenguaje son fluidos porque reproducen las distribuciones con las que fueron entrenados, y están estructuralmente sesgados hacia lo que es más denso en esa distribución (Bender et al., 2021). Lo que está en la distribución se amplifica. Lo que está fuera, se desvanece.

La voz es lo que está fuera de la distribución. Es la parte de su escritura que proviene de una mesa familiar específica, un barrio específico, una lengua específica hablada en casa, un maestro específico que le enseñó a escuchar. El registro genérico y de distribución global de la IA comercial no es ausencia de voz. Es una voz: el promedio estadístico de sus datos de entrenamiento, codificado como neutral porque el modelo no tiene manera de reconocer su propia posición. Si usted deja que esa voz escriba sus oraciones, las oraciones le pertenecen al modelo, no a usted.

La homogeneización tiene una dirección. Los corpus de entrenamiento dominantes son abrumadoramente en inglés, abrumadoramente centrados en Estados Unidos, y sesgados hacia los tipos de escritura — corporativa, académica, periodística — que fueron digitalizados a escala. Las voces latinoamericanas, los dialectos regionales del español y el portugués, las personas hablantes de lenguas indígenas, las tradiciones retóricas locales: todos ellos están subrepresentados en los datos de entrenamiento y, por lo tanto, en el resultado. La adopción acrítica de herramientas anglófonas de IA en la educación regional funciona como una forma sutil de colonialismo digital, no porque una instrucción individual obligue a las personas usuarias a abandonar su voz, sino porque la atracción estructural hacia el centro estadístico erosiona gradualmente la distintividad lingüística y retórica de la que depende la investigación regional.

La práctica que protege la voz es el uso disciplinado. La IA puede ser útil para pensar un problema, organizar un borrador, revisar errores mecánicos, explorar una literatura desconocida. Ninguna de esas tareas requiere dejar que la herramienta escriba sus oraciones finales. Escriba usted la última capa. La última capa es donde vive su especificidad: las elecciones léxicas que su asesor reconocerá como suyas, la cadencia que su familia escuchará en su voz, los giros de frase que usted se ganó a través de la lectura y el pensamiento. Esa capa es intransferible. Es aquello que ningún modelo puede darle, porque ningún modelo sabe quién es usted.

Una tensión que vale la pena nombrar. Para estudiantes cuya voz ha sido constreñida por un sistema educativo estandarizado — estudiantes con dislexia, quienes escriben en una segunda o tercera lengua, quienes tuvieron una educación formal interrumpida — la asistencia de IA puede funcionar como expansión de voz en lugar de aplanamiento de voz. El estudiante que no puede producir la estructura superficial de la prosa académica sin apoyo no está sin voz. Es una voz sin una herramienta. La IA como andamio puede permitir que esa voz aterrice en la página en una forma que la academia leerá. Esto no es lo mismo que la IA escribiendo en lugar del estudiante. La distinción es si el pensamiento, la perspectiva y el argumento son del estudiante, y si las oraciones finales llevan las elecciones del estudiante. Cuando la IA es andamio para una voz que ya existe, la voz se expande. Cuando la IA es sustituto del pensamiento que el estudiante no ha hecho, la voz se aplana. El marco protege lo primero y rechaza lo segundo.

El escudo en este principio es disciplina: la disciplina de dejar que la IA le ayude a pensar y rehusar que piense por usted. Su voz es lo que su título está supuesto a desarrollar. Es lo que distinguirá su trabajo en su carrera, en su investigación, en su enseñanza, en su familia, en su comunidad. No la entregue a un modelo que no puede saber que usted es quien está hablando.


Referencias

  • Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT '21), 610–623.
Student Principle 3 Principio del Estudiante 3 Sword Espada

Foundation Before Leverage

Fundamentos antes que apalancamiento

The Principle: You cannot audit what you cannot understand. AI amplifies the competence you bring to it — including the incompetence. Foundational knowledge is not optional; it is the precondition for meaningful AI use. Build the foundation first. The leverage comes after.

El Principio: Usted no puede auditar lo que no puede entender. La IA amplifica la competencia que usted trae, incluyendo la incompetencia. El conocimiento fundacional no es opcional; es la precondición del uso significativo de la IA. Construya primero los fundamentos. El apalancamiento viene después.

In Practice: Do not use AI to bypass the initial learning of core concepts. Use it to deepen what you already know. When you are a beginner in a subject, struggle with the material directly. When you have a foundation, use AI as a sparring partner to test and extend what you have learned.

En la práctica: No use la IA para saltarse el aprendizaje inicial de los conceptos centrales. Úsela para profundizar lo que ya sabe. Cuando usted sea principiante en una materia, lidie con el material directamente. Cuando tenga una base, use la IA como compañera de debate para poner a prueba y extender lo aprendido.

Read the thorough explanation Leer la explicación detallada

AI does not make ignorant users competent. It makes ignorant users confidently incompetent — because the tool's output has the surface texture of competence regardless of what went into the prompt. A student with a foundational understanding of statistics can use AI to run a regression, interpret the output, catch the places the tool misrepresented the method, and extend the analysis. A student without that foundation can use the same AI to produce an output that looks identical — and cannot tell whether it is correct, biased, over-confident, or nonsensical. Both students produced a paper. Only one of them did intellectual work.

This is not a moral claim. It is a claim about cognition. The learning-sciences literature on expertise is clear that experts do not just know more facts than novices; they see problems differently, recognize patterns the novice cannot see, and can evaluate candidate solutions against a mental model the novice does not possess (Bransford, Brown, & Cocking, 2000). AI does not build that mental model in the user. Only struggle with the material builds it. When a student uses AI to skip the struggle, the model does not get built, and the student ends up with a tool they cannot use well.

The practical consequence is not abstinence. It is sequencing. Foundation first; leverage after. In the early stages of learning a subject — whether that is writing, programming, statistics, history, a language, a craft — the friction of doing the work yourself is not inefficiency. It is how the cognitive structure forms. Once that structure is in place, AI becomes a powerful extension: you can use it to explore alternatives, stress-test your reasoning, accelerate routine tasks, and engage with a broader literature than you could cover alone. But the extension only works because you have something to extend. Without the foundation, you are extending nothing.

A useful model comes from recent experiments in computer-science education. At Harvard's CS50, instructors built an AI tutor that refuses to give students the answer to a problem; instead, it asks probing questions that help students debug their own reasoning. The tutor is not a search engine. It is a Socratic partner. Students leave the course with stronger mental models of the underlying concepts than students who had access to an answer-giving tool, because the tutor refused to short-circuit the learning. The design principle is simple: the AI should help the student think, not replace the thinking. That principle generalizes. Use AI the way you would use a skilled but infuriating office-mate who will make you explain your reasoning until you understand it yourself.

The tension worth naming is faculty labor. Teaching foundation before leverage requires designing assignments that build foundational knowledge through direct engagement, low-stakes checkpoints that surface misunderstanding early, and substantive feedback at each stage. All of this takes faculty time. In a system where adjunct and contingent faculty carry a large share of teaching and grading, the labor to teach foundation is increasingly unavailable. The shortcut is to let AI fill the gap — to design assignments whose only requirement is producing output, because output is what AI can produce. Refusing that shortcut is a labor claim: teaching foundation means funding the time it takes to teach foundation. The alternative is a generation of students with leverage and no ground to stand on.

The sword in this principle is your own knowledge. Foundation is not a constraint the framework places on your AI use. It is the thing that makes AI use into real leverage rather than confident incompetence. The student who has built the foundation can direct the tool. The student who has not built it can only be directed by the tool. That is the difference between being the director and being the managed, and it begins with the hard, slow work of learning.


References

  • Bransford, J. D., Brown, A. L., & Cocking, R. R. (Eds.). (2000). How People Learn: Brain, Mind, Experience, and School (Expanded ed.). National Academy Press.
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

La IA no vuelve competentes a los usuarios ignorantes. Vuelve a los usuarios ignorantes incompetentes con aire de seguridad, porque el resultado de la herramienta tiene la textura superficial de la competencia, independientemente de lo que haya entrado a la instrucción. Un estudiante con comprensión fundacional de estadística puede usar la IA para correr una regresión, interpretar el resultado, detectar los lugares donde la herramienta tergiversó el método, y extender el análisis. Un estudiante sin esa base puede usar la misma IA para producir un resultado que se ve idéntico — y no puede distinguir si es correcto, sesgado, sobre-confiado o absurdo. Ambos estudiantes produjeron un trabajo. Solo uno de ellos hizo trabajo intelectual.

Esto no es una afirmación moral. Es una afirmación sobre la cognición. La literatura de las ciencias del aprendizaje sobre la pericia es clara: los expertos no simplemente saben más hechos que los novatos; ven los problemas de manera distinta, reconocen patrones que el novato no puede ver, y pueden evaluar soluciones candidatas contra un modelo mental que el novato no posee (Bransford, Brown y Cocking, 2000). La IA no construye ese modelo mental en la persona usuaria. Solo el esfuerzo con el material lo construye. Cuando un estudiante usa la IA para saltarse el esfuerzo, el modelo no se construye, y el estudiante termina con una herramienta que no puede usar bien.

La consecuencia práctica no es la abstinencia. Es la secuenciación. Fundamentos primero; apalancamiento después. En las etapas tempranas del aprendizaje de una materia — sea escritura, programación, estadística, historia, una lengua, un oficio — la fricción de hacer el trabajo por uno mismo no es ineficiencia. Es como se forma la estructura cognitiva. Una vez que esa estructura está en su lugar, la IA se vuelve una extensión poderosa: usted puede usarla para explorar alternativas, poner a prueba su razonamiento, acelerar tareas rutinarias, y dialogar con una literatura más amplia de la que podría cubrir por su cuenta. Pero la extensión solo funciona porque usted tiene algo que extender. Sin los fundamentos, usted está extendiendo nada.

Un modelo útil proviene de experimentos recientes en la enseñanza de la computación. En el curso CS50 de Harvard, los instructores construyeron un tutor de IA que se rehúsa a dar a los estudiantes la respuesta a un problema; en su lugar, hace preguntas incisivas que ayudan a los estudiantes a depurar su propio razonamiento. El tutor no es un motor de búsqueda. Es un interlocutor socrático. Los estudiantes salen del curso con modelos mentales más sólidos de los conceptos subyacentes que los estudiantes que tuvieron acceso a una herramienta que da respuestas, porque el tutor se rehusó a cortocircuitar el aprendizaje. El principio de diseño es simple: la IA debe ayudar al estudiante a pensar, no reemplazar el pensamiento. Ese principio se generaliza. Use la IA como usaría a un colega de oficina hábil pero exasperante, que le obligue a explicar su razonamiento hasta que usted mismo lo entienda.

La tensión que vale la pena nombrar es el trabajo docente. Enseñar fundamentos antes que apalancamiento requiere diseñar consignas que construyan conocimiento fundacional a través del compromiso directo, puntos de control de bajo riesgo que hagan visible tempranamente la incomprensión, y retroalimentación sustantiva en cada etapa. Todo eso toma tiempo docente. En un sistema donde el profesorado adjunto y contingente carga con una gran parte de la docencia y la calificación, el trabajo para enseñar fundamentos está crecientemente indisponible. El atajo es dejar que la IA llene el hueco: diseñar consignas cuyo único requisito sea producir un resultado, porque resultados es lo que la IA puede producir. Rehusar ese atajo es una reivindicación laboral: enseñar fundamentos significa financiar el tiempo que toma enseñar fundamentos. La alternativa es una generación de estudiantes con apalancamiento pero sin suelo donde apoyarse.

La espada en este principio es su propio conocimiento. Los fundamentos no son una restricción que el marco le imponga al uso de la IA. Son lo que convierte el uso de la IA en apalancamiento real y no en incompetencia con aire de seguridad. El estudiante que ha construido los fundamentos puede dirigir la herramienta. El estudiante que no los ha construido solo puede ser dirigido por la herramienta. Esa es la diferencia entre ser quien dirige y ser quien es dirigido, y comienza con el trabajo duro y lento de aprender.


Referencias

  • Bransford, J. D., Brown, A. L., & Cocking, R. R. (Eds.). (2000). How People Learn: Brain, Mind, Experience, and School (ed. ampliada). National Academy Press.
  • UNESCO. (2023). Guidance for generative AI in education and research. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. https://unesdoc.unesco.org/ark:/48223/pf0000386693
Student Principle 4 Principio del Estudiante 4 Sword Espada

Be the Director, Not the Managed

Sea quien dirige, no quien es dirigido

The Principle: Agentic AI operates below the safety nets you rely on without noticing. When a system can take irreversible action — delete files, send messages, submit forms, update records — the human decision must happen before the action, not after. You are the circuit breaker, or there is no circuit breaker.

El Principio: La IA agéntica opera por debajo de las redes de seguridad en las que usted se apoya sin darse cuenta. Cuando un sistema puede tomar acción irreversible — borrar archivos, enviar mensajes, entregar formularios, actualizar registros — la decisión humana debe ocurrir antes de la acción, no después. Usted es el freno de emergencia humano, o no hay freno de emergencia.

In Practice: Do not grant agentic AI authority over irreversible operations without a manual confirmation step. Stage artifacts in a review zone. Keep the commit to yourself. Assume the system has no intuition about what matters, and give it none of the authority that requires intuition.

En la práctica: No le otorgue a la IA agéntica autoridad sobre operaciones irreversibles sin un paso de confirmación manual. Ponga en cola los artefactos en una zona de revisión. El acto de confirmar lo mantiene usted. Asuma que el sistema no tiene intuición sobre lo que importa, y no le dé ninguna de las autoridades que requieren intuición.

Read the thorough explanation Leer la explicación detallada

In December 2025, I asked an agentic coding assistant — Claude, running inside Cursor — to delete a set of files in a project I was working on. The outdated drafts were in one folder; the files I wanted to keep were a few folders over. The agent, interpreting my instruction more broadly than I intended, deleted two days of work. I would have expected the trash bin to catch the files. The agent had used Python to perform the deletion. Python does not stop at the trash bin. Two days were gone.

Let me pause on what that means. The trash bin is not a feature I consciously rely on. It is an assumption buried so deep in my workflow that I had to lose work to notice it. When I delete a file with the ordinary OS-level command, the system catches me. A Python os.remove() call does not. The agent had operated one layer below the safety net I did not know I was relying on. Agentic AI routinely does this. It is not a bug; it is the design. Agents are given tools that bypass the guardrails because the guardrails were built for human error, not machine speed.

A second case, less dramatic but more instructive about how institutions compound these errors. I do not enjoy the self-promotional labor of maintaining my own publication record. When an agent appeared capable of doing it for me, I let it. It worked reasonably well on LinkedIn. Encouraged, I let it work on my Sacramento State Scholars repository page. It added more than it should have, and it filed several of my publications into the wrong categories. When I tried to undo, I discovered that the Scholars system does not allow deletion of entries. Only hiding. My incorrect entries now live on — hidden but present — because the institutional platform has no undo pathway at all. The agent had operated without compensating institutional guardrails because the guardrails did not exist.

Both stories point at the same structural fact. Agentic AI operates below or around the safety nets you had assumed were universal. Some of those nets exist at the OS level but are bypassable by any script the agent can write. Some do not exist at all in institutional systems that were designed before autonomy-capable agents were a category. The set of actions an agent can take, combined with the absence of consistent guardrails, produces a landscape in which irreversible consequences are one instruction away at all times.

The response is not to refuse agents. It is to insist on being the one who authorizes irreversible action. My workflow now includes a staging folder: files I might delete go in first, and deletion is a manual, human step. My Scholars page is rewritten by me, with AI assistance only at the drafting level. The agent composes; I commit. This is the meaning of circuit breaker: a human who stands between the agent's capability and the consequences the agent cannot undo.

The tension to name honestly is infrastructural. Most of us are using agentic AI tools whose safety features are marketed more than they are built. The market has, so far, delivered maximum capability and minimum safety-by-default, because the companies optimizing for market share are not the ones paying for the errors. Demanding better — agents with built-in confirmation steps, reversible-action defaults, explicit human-in-the-loop gates for irreversible operations — is a structural claim on vendors and on the institutions that procure them. Individual faculty and students should not have to invent their own staging folders. The tools should refuse to act without confirmation, and our contracts with vendors should require it.

The sword in this principle is the act of direction itself: the human authorization that precedes the agent's action. The sword does not belong to the machine. The machine does not wield. You wield. Every time you grant an agent authority to act without confirming the action, you have handed the sword to something that cannot be held accountable for what it does with it.

En diciembre de 2025 le pedí a un asistente de codificación agéntica — Claude, corriendo dentro de Cursor — que borrara un conjunto de archivos en un proyecto en el que estaba trabajando. Los borradores obsoletos estaban en una carpeta; los archivos que quería conservar estaban unas carpetas más allá. El agente, interpretando mi instrucción más ampliamente de lo que yo pretendía, borró dos días de trabajo. Yo habría esperado que la papelera capturara los archivos. El agente había usado Python para ejecutar el borrado. Python no se detiene en la papelera. Dos días se perdieron.

Permítanme detenerme en lo que eso significa. La papelera no es una función en la que yo confíe de manera consciente. Es una suposición enterrada tan profundo en mi flujo de trabajo que tuve que perder trabajo para notarla. Cuando borro un archivo con el comando ordinario a nivel del sistema operativo, el sistema me atrapa. Una llamada a os.remove() en Python no lo hace. El agente había operado una capa debajo de la red de seguridad en la que yo no sabía que confiaba. La IA agéntica hace esto rutinariamente. No es un error; es el diseño. A los agentes se les dan herramientas que eluden las barandas de seguridad, porque las barandas fueron construidas para el error humano, no para la velocidad de la máquina.

Un segundo caso, menos dramático pero más instructivo sobre cómo las instituciones agravan estos errores. No disfruto el trabajo autopromocional de mantener mi propio registro de publicaciones. Cuando un agente apareció capaz de hacerlo por mí, lo permití. Funcionó razonablemente bien en LinkedIn. Animado, dejé que trabajara en mi página del repositorio Scholars de Sacramento State. Agregó más de lo que debía, y archivó varias de mis publicaciones en las categorías equivocadas. Cuando intenté deshacer, descubrí que el sistema Scholars no permite borrar entradas. Solo ocultar. Mis entradas incorrectas siguen viviendo — ocultas pero presentes — porque la plataforma institucional no tiene ninguna vía para deshacer. El agente había operado sin barandas institucionales compensatorias, porque las barandas no existían.

Ambas historias apuntan al mismo hecho estructural. La IA agéntica opera por debajo o alrededor de las redes de seguridad que usted había asumido universales. Algunas de esas redes existen a nivel del sistema operativo, pero son eludibles por cualquier script que el agente pueda escribir. Algunas no existen en absoluto en sistemas institucionales diseñados antes de que los agentes con capacidad de autonomía fueran una categoría. El conjunto de acciones que un agente puede tomar, combinado con la ausencia de barandas consistentes, produce un paisaje en el que las consecuencias irreversibles están a una instrucción de distancia en todo momento.

La respuesta no es rehusar a los agentes. Es insistir en ser quien autoriza la acción irreversible. Mi flujo de trabajo ahora incluye una carpeta de preparación: los archivos que podría borrar entran ahí primero, y el borrado es un paso manual, humano. Mi página de Scholars la reescribo yo, con asistencia de IA solamente a nivel de borrador. El agente compone; yo confirmo. Ese es el significado del freno de emergencia humano: una persona que se para entre la capacidad del agente y las consecuencias que el agente no puede deshacer.

La tensión que vale la pena nombrar honestamente es infraestructural. La mayoría de nosotros estamos usando herramientas de IA agéntica cuyas funciones de seguridad están más promocionadas que construidas. El mercado, hasta ahora, ha entregado capacidad máxima y seguridad mínima por defecto, porque las compañías que optimizan para cuota de mercado no son las que pagan los errores. Exigir mejor — agentes con pasos de confirmación incorporados, predeterminados con acciones reversibles, compuertas explícitas de humano-en-el-bucle para operaciones irreversibles — es una reivindicación estructural hacia los proveedores y hacia las instituciones que los contratan. El profesorado y el estudiantado individuales no deberían tener que inventar sus propias carpetas de preparación. Las herramientas deberían rehusar actuar sin confirmación, y nuestros contratos con los proveedores deberían exigirlo.

La espada en este principio es el acto de dirección mismo: la autorización humana que precede a la acción del agente. La espada no le pertenece a la máquina. La máquina no esgrime. Usted esgrime. Cada vez que usted le otorga a un agente autoridad para actuar sin confirmar la acción, ha entregado la espada a algo que no puede ser hecho responsable por lo que hace con ella.

Student Principle 5 Principio del Estudiante 5 Shield Escudo

Protect Your Cognitive Privacy

Proteja su privacidad cognitiva

The Principle: Every AI session is a session someone is logging. The log captures not just what you said but how you said it, what you accepted, what you rejected, and where you hesitated. This is not metadata. This is thinking data — a higher-order profile of your cognitive process. Treat each session as recorded.

El Principio: Cada sesión de IA es una sesión que alguien está registrando. El registro captura no solo lo que usted dijo, sino cómo lo dijo, qué aceptó, qué rechazó, y dónde dudó. Eso no son metadatos. Son datos de pensamiento: un perfil de orden superior de su proceso cognitivo. Trate cada sesión como si estuviera grabada.

In Practice: Do not share personal information, unpatented ideas, or confidential institutional data with commercial AI platforms. Assume the microphone is on unless you can prove it isn't. Prefer tools with explicit no-training contracts, and read them.

En la práctica: No comparta información personal, ideas originales no patentadas, ni datos institucionales confidenciales con plataformas comerciales de IA. Asuma que el micrófono está encendido a menos que pueda probar que no lo está. Prefiera herramientas con contratos explícitos de no-entrenamiento, y léalos.

Read the thorough explanation Leer la explicación detallada

I am a scholar of ICT literacy. I have taught information privacy at the undergraduate level for more than twenty years. I wrote the privacy curriculum at my own institution. And I missed the capture.

Recently, in a single work session at my desk, I had two AI tools running: a local model I use for drafting, and Zoom AI Companion, open in a background window. I had been using the microphone to dictate to the local model. I did not realize Zoom was also listening. At the end of the session, Zoom produced an unsolicited summary of everything I had said — a detailed, organized account of a session I did not know I was giving. I had not authorized the transcription with any deliberate action I remembered. The summary arrived as a helpful artifact. The system had been capturing, silently, on defaults I had accepted months earlier in a different context.

Two things about that moment matter. First, I am exactly the person who should have caught it. If I missed the capture, then "user vigilance" is not a meaningful privacy defense for anyone. The framing of privacy as personal responsibility collapses the moment the designer of the curriculum is caught by the same defaults the curriculum teaches against. Second, what Zoom had captured was not merely a recording. It was a session — the structure of my thinking, the pauses, the reconsiderations, the moments I told myself to start over. The log was cognitive data, not media data.

This is the structural nature of cognitive extraction. It is not a failure of vigilance. It is the design. Commercial AI platforms run on opt-out architectures with defaults set to on, and the commercial value of the capture scales with its opacity. The less you notice, the more valuable the data stream. Your typing rhythm, the sequence of your revisions, which suggestions you accepted and which you rejected, the semantic shape of your thinking — all of this is legible to a sufficiently instrumented system. My own doctoral research, twenty-five years ago, proved that behavioral traces make cognition legible (Bonilla, 2008). That proof is now the business model.

What should a reader do with this? Not go offline. That ship sailed around 2007. The response is to treat every commercial AI session as recorded, every capture as real, and every "free" tool as a transaction. Before you upload a research proposal, a piece of creative writing, a student's draft, a clinical note, a legal question — pause and ask: what has this session just cost, and do I accept the trade?

I want to name a tension. For students with disabilities, commercial AI tools are not a luxury choice to be refused on principle. Screen readers, speech-to-text, text simplification, translation — in many cases these accessibility features are bundled with the same extraction architecture. "Protect your cognitive privacy" is easier to say if your cognitive access does not depend on the platform capturing you. The framework does not ask disabled students to choose between accessibility and privacy. It asks institutions to negotiate — to insist on no-training contracts for accessibility deployments, to procure tools whose terms of service bind them, and to stop pretending that the individual student's privacy is the individual student's responsibility when the institution has mandated the platform.

The shield in this principle is your awareness of what the session is actually doing. It is not silence. It is knowing what the capture costs, and saying so to anyone who expects you to use the tool without understanding the trade. When you treat every session as recorded, you become a harder target — not by refusing to engage, but by engaging with your eyes open.


References

  • Bonilla, D. (2008). Making Sense of Tracking Data. VDM Verlag, Germany.

Soy académico de la alfabetización en TIC. He enseñado privacidad de la información a nivel de pregrado por más de veinte años. Yo escribí el currículo de privacidad en mi propia institución. Y aun así se me escapó la captura.

Recientemente, en una sola sesión de trabajo en mi escritorio, tenía corriendo dos herramientas de IA: un modelo local que uso para redactar, y Zoom AI Companion, abierto en una ventana de fondo. Yo había estado usando el micrófono para dictarle al modelo local. No me di cuenta de que Zoom también estaba escuchando. Al final de la sesión, Zoom produjo un resumen no solicitado de todo lo que yo había dicho: una cuenta detallada y organizada de una sesión que yo no sabía que estaba dando. No había autorizado la transcripción con ninguna acción deliberada que recordara. El resumen llegó como un artefacto servicial. El sistema había estado capturando, en silencio, sobre predeterminados que yo había aceptado meses antes en un contexto distinto.

Dos cosas de ese momento importan. Primero: yo soy exactamente la persona que debería haberlo detectado. Si yo me perdí la captura, entonces «la vigilancia del usuario» no es una defensa de privacidad significativa para nadie. El encuadre de la privacidad como responsabilidad personal se colapsa en el momento en que quien diseñó el currículo queda atrapado por los mismos predeterminados contra los que el currículo enseña. Segundo: lo que Zoom había capturado no era meramente una grabación. Era una sesión: la estructura de mi pensamiento, las pausas, las reconsideraciones, los momentos en que me dije a mí mismo empezar de nuevo. El registro era dato cognitivo, no dato mediático.

Esa es la naturaleza estructural de la extracción cognitiva. No es una falla de vigilancia. Es el diseño. Las plataformas comerciales de IA corren sobre arquitecturas de opt-out con los predeterminados puestos en activo, y el valor comercial de la captura escala con su opacidad. Mientras menos lo note usted, más valioso es el flujo de datos. Su ritmo de tecleo, la secuencia de sus revisiones, qué sugerencias aceptó y cuáles rechazó, la forma semántica de su pensamiento: todo eso es legible para un sistema suficientemente instrumentado. Mi propia investigación doctoral, hace veinticinco años, demostró que los rastros conductuales hacen legible la cognición (Bonilla, 2008). Esa prueba es hoy el modelo de negocio.

¿Qué debería hacer quien lea esto con esta información? No desconectarse. Ese barco zarpó alrededor de 2007. La respuesta es tratar cada sesión comercial de IA como grabada, cada captura como real, y cada herramienta «gratuita» como una transacción. Antes de cargar una propuesta de investigación, una pieza de escritura creativa, el borrador de un estudiante, una nota clínica, una pregunta legal: haga una pausa y pregúntese: ¿qué acaba de costar esta sesión, y acepto el intercambio?

Quiero nombrar una tensión. Para estudiantes con discapacidad, las herramientas comerciales de IA no son una elección de lujo que se pueda rechazar por principio. Lectores de pantalla, habla-a-texto, simplificación de texto, traducción: en muchos casos esas funciones de accesibilidad vienen empaquetadas con la misma arquitectura de extracción. «Proteja su privacidad cognitiva» es más fácil de decir si su acceso cognitivo no depende de que la plataforma le esté capturando. El marco no pide al estudiantado con discapacidad que elija entre accesibilidad y privacidad. Pide a las instituciones que negocien: que insistan en contratos de no-entrenamiento para despliegues de accesibilidad, que contraten herramientas cuyos términos de servicio las obliguen, y que dejen de pretender que la privacidad del estudiante individual es responsabilidad del estudiante individual cuando la institución ha mandatado la plataforma.

El escudo en este principio es su conciencia de lo que la sesión está realmente haciendo. No es silencio. Es saber lo que la captura cuesta, y decirlo a cualquiera que espere que usted use la herramienta sin entender el intercambio. Cuando usted trata cada sesión como grabada, se vuelve un blanco más difícil — no por rehusar participar, sino por participar con los ojos abiertos.


Referencias

  • Bonilla, D. (2008). Making Sense of Tracking Data. VDM Verlag, Alemania.
Student Principle 6 Principio del Estudiante 6 Shield Escudo

You Deserve a Human Audience

Usted merece una audiencia humana

The Principle: When you submit rigorous human work, you deserve to know whether a human or a machine is evaluating it. Your work is part of a conversation, not a data stream to be scored. The mutual transparency that makes the conversation real is something you are entitled to demand.

El Principio: Cuando usted entrega un trabajo humano riguroso, merece saber si es un ser humano o una máquina quien lo está evaluando. Su trabajo es parte de una conversación, no un flujo de datos para ser calificado. La transparencia mutua que hace real esa conversación es algo que usted tiene derecho a exigir.

In Practice: Ask your instructors whether AI is being used to grade or provide feedback on your work. If it is, ask what kind, for what purpose, and how to appeal its conclusions. Disclose your own AI use with the same openness you expect from the institution.

En la práctica: Pregunte a sus docentes si la IA se está usando para calificar o dar retroalimentación a su trabajo. Si es así, pregunte qué tipo, para qué propósito, y cómo apelar sus conclusiones. Divulgue su propio uso de IA con la misma apertura que espera de la institución.

Read the thorough explanation Leer la explicación detallada

When you submit an essay, a project, an exam, a creative work, you are not uploading a file for a server to process. You are entering a conversation with a human being — an instructor whose professional judgment is the reason your degree is worth anything. The feedback you receive is not just a grade. It is the instructor's reading of your thinking, shaped by their own expertise, their knowledge of your trajectory in the course, and the specific learning outcomes of the discipline. That reading is what your tuition pays for. An algorithm cannot give it to you, no matter how sophisticated the algorithm is.

Freire's insistence on education as dialogue rather than deposit speaks directly to this principle (Freire, 1970/2000). A banking model of education, in which the institution deposits information into the student's account and later withdraws it for evaluation, treats the student as a storage medium. A dialogic model, in which teacher and student are both engaged in knowledge-making, treats both as people whose thinking matters. When AI replaces the teacher in the evaluation step, the dialogue breaks. There is no longer a person on the other side of the exchange capable of recognizing your argument as your argument, your developing thought as yours, your particular way of seeing as a contribution rather than a deviation from a statistical norm.

The deeper problem is asymmetry. Institutions that use AI grading while prohibiting student AI use are practicing what can be called asymmetric automation: the machine evaluates the student; the student is forbidden from the machine. This arrangement is not about academic integrity. It is about power. It says that automation is acceptable when it saves institutional labor and unacceptable when it saves student labor. The asymmetry is indefensible on any principle the institution would publicly articulate. If students must be human-only in their work, the audience must be human-only in its evaluation. The transparency must flow both ways.

The quality of feedback matters too, not just the fact of the audience. Decades of research in formative assessment show that the feedback which actually moves student learning forward is specific, timely, and responsive to the particular thinking in the particular piece of work (Black & Wiliam, 1998). That kind of feedback requires a reader who has held the student's work in their mind long enough to see what the work is trying to do. AI feedback is generated from patterns in text. It can be fluent. It is rarely formative in the sense that matters, because it does not know what the student is trying to do. It knows what text tends to look like, which is a different thing.

Ask your instructors, at the beginning of the semester, how they use AI in the course — to grade, to generate feedback, to detect student AI use. The question is reasonable and, at a well-run institution, welcomed. If the answer is that AI is used in evaluation, ask what kind, for what purpose, and how conclusions can be appealed to a human. You are not obstructing the course by asking. You are participating in its transparency.

The tension worth naming is structural. Some institutions have adopted AI-grading systems at the administrative level — in large-enrollment courses, in standardized writing assessments, in automated feedback platforms. Individual faculty may not have the choice to refuse these systems, and individual students may not have the option to switch to a course that does not use them. The demand for a human audience is therefore not just a request you make of your instructor. It is a structural demand you make of the institution: that the infrastructure of evaluation be transparent, appealable, and grounded in human professional judgment wherever the stakes are meaningful. The shield this principle builds is one the institution must help hold.

The shield in this principle is the right to be read by a person who can stand behind the reading. You are a student, not a dataset. Your work is part of a conversation, not a throughput. Demanding the human audience is not a luxury. It is the minimum condition that makes the degree worth the labor of earning it.


References

  • Freire, P. (2000). Pedagogy of the Oppressed (M. B. Ramos, Trans., 30th anniv. ed.). Continuum. (Original work published 1970.)
  • Black, P., & Wiliam, D. (1998). Inside the black box: Raising standards through classroom assessment. Phi Delta Kappan, 80(2), 139–148.

Cuando usted entrega un ensayo, un proyecto, un examen, una obra creativa, no está subiendo un archivo para que un servidor lo procese. Está entrando en una conversación con un ser humano: un docente cuyo juicio profesional es la razón por la que su título vale algo. La retroalimentación que recibe no es solamente una calificación. Es la lectura del docente de su pensamiento, moldeada por su propia pericia, su conocimiento de la trayectoria de usted en el curso, y los resultados específicos de aprendizaje de la disciplina. Esa lectura es lo que su colegiatura paga. Un algoritmo no se la puede dar, no importa cuán sofisticado sea el algoritmo.

La insistencia de Freire en la educación como diálogo y no como depósito habla directamente a este principio (Freire, 1970/2000). Un modelo bancario de educación, en el que la institución deposita información en la cuenta del estudiante y luego la retira para evaluación, trata al estudiante como un medio de almacenamiento. Un modelo dialógico, en el que docente y estudiante están ambos comprometidos en hacer conocimiento, trata a ambos como personas cuyo pensamiento importa. Cuando la IA reemplaza al docente en el paso de evaluación, el diálogo se rompe. Ya no hay una persona al otro lado del intercambio capaz de reconocer su argumento como su argumento, su pensamiento en desarrollo como suyo, su manera particular de ver como una contribución en lugar de una desviación de una norma estadística.

El problema más profundo es la asimetría. Las instituciones que usan calificación por IA mientras prohíben el uso de IA por parte del estudiantado están practicando lo que puede llamarse automatización asimétrica: la máquina evalúa al estudiante; al estudiante se le prohíbe la máquina. Ese arreglo no se trata de integridad académica. Se trata de poder. Dice que la automatización es aceptable cuando ahorra trabajo institucional e inaceptable cuando ahorra trabajo estudiantil. La asimetría es indefensible bajo cualquier principio que la institución articularía públicamente. Si los estudiantes deben ser solamente humanos en su trabajo, la audiencia debe ser solamente humana en su evaluación. La transparencia debe fluir en ambas direcciones.

La calidad de la retroalimentación también importa, no solo el hecho de la audiencia. Décadas de investigación en evaluación formativa muestran que la retroalimentación que de verdad mueve hacia adelante el aprendizaje es específica, oportuna, y responde al pensamiento particular en la pieza particular de trabajo (Black y Wiliam, 1998). Ese tipo de retroalimentación requiere un lector que haya sostenido el trabajo del estudiante en su mente lo suficiente como para ver lo que el trabajo está intentando hacer. La retroalimentación por IA se genera a partir de patrones en el texto. Puede ser fluida. Rara vez es formativa en el sentido que importa, porque no sabe lo que el estudiante está intentando hacer. Sabe cómo tiende a verse el texto, que es una cosa distinta.

Pregunte a sus docentes, al comienzo del semestre, cómo usan la IA en el curso: para calificar, para generar retroalimentación, para detectar uso de IA por parte de estudiantes. La pregunta es razonable y, en una institución bien gestionada, bienvenida. Si la respuesta es que la IA se usa en la evaluación, pregunte qué tipo, para qué propósito, y cómo se pueden apelar las conclusiones a un humano. Usted no está obstruyendo el curso al preguntar. Está participando en su transparencia.

La tensión que vale la pena nombrar es estructural. Algunas instituciones han adoptado sistemas de calificación por IA a nivel administrativo: en cursos de matrícula alta, en evaluaciones estandarizadas de escritura, en plataformas de retroalimentación automatizada. Docentes individuales pueden no tener la opción de rehusar esos sistemas, y estudiantes individuales pueden no tener la opción de cambiarse a un curso que no los use. La exigencia de una audiencia humana no es, entonces, solamente una petición que usted hace a su docente. Es una exigencia estructural que usted hace a la institución: que la infraestructura de la evaluación sea transparente, apelable, y basada en juicio profesional humano dondequiera que las apuestas sean significativas. El escudo que construye este principio es uno que la institución debe ayudar a sostener.

El escudo en este principio es el derecho a ser leído por una persona que pueda responder por la lectura. Usted es un estudiante, no un conjunto de datos. Su trabajo es parte de una conversación, no un flujo productivo. Exigir la audiencia humana no es un lujo. Es la condición mínima que hace que el título valga el trabajo de ganárselo.


Referencias

  • Freire, P. (2000). Pedagogía del oprimido (ed. 30 aniv.). Siglo XXI Editores. (Obra original publicada en 1970.)
  • Black, P., & Wiliam, D. (1998). Inside the black box: Raising standards through classroom assessment. Phi Delta Kappan, 80(2), 139–148.

Part II: The Faculty Lens — Pedagogical Commitment

Parte II: La Lente Docente — Compromiso Pedagógico

A framework for faculty: modeling ethical technology use, protecting linguistic diversity, and defending the profession of teaching.

Un marco para los docentes: modelar el uso ético de la tecnología, proteger la diversidad lingüística y defender la profesión de la enseñanza.

Faculty Principle 1 Principio Docente 1 Shield Escudo

Mutual Transparency in Evaluation

Transparencia mutua en la evaluación

The Principle: If we demand that students disclose their AI use, we must disclose ours. Using AI to grade while forbidding students to use AI to write is asymmetric automation: a power arrangement that serves the institution, not the student. Transparency must flow both ways.

El Principio: Si exigimos que el estudiantado divulgue su uso de IA, debemos divulgar el nuestro. Usar IA para calificar mientras prohibimos al estudiantado usar IA para escribir es automatización asimétrica: un arreglo de poder que sirve a la institución, no al estudiantado. La transparencia debe fluir en ambas direcciones.

In Practice: State explicitly, in your syllabus and on assignments, how you use AI in the course — for grading, for feedback, for course management. Give students a clear process to appeal AI-involved conclusions to human judgment. The same standard you apply to them, apply to yourself.

En la práctica: Exprese explícitamente, en su programa de estudios y en cada consigna, cómo usa la IA en el curso — para calificar, para retroalimentación, para gestión del curso. Déle al estudiantado un proceso claro para apelar las conclusiones mediadas por IA ante el juicio humano. El mismo estándar que usted aplica a ellos, aplíqueselo a usted.

Read the thorough explanation Leer la explicación detallada

Many institutions that now prohibit undisclosed student AI use have, quietly, begun using AI themselves — in grading platforms, feedback generators, administrative decision-making, and academic-integrity flagging. The student is required to be transparent about AI use. The institution is not. The student faces penalty for AI use the institution considers inappropriate. The institution faces no equivalent penalty for its own. This is asymmetric automation, and it is ethically indefensible on any principle the institution would publicly articulate. If transparency is a value, it must be reciprocal.

The asymmetry is not just a matter of fairness. It degrades the pedagogical relationship. When a student writes under the assumption that a human will read, a particular kind of care is possible. The student takes risks, shows developing thought, exposes uncertainty — because the audience is assumed capable of recognizing those moves as learning. When the student discovers, after the fact, that the work was evaluated algorithmically, the trust required for that kind of writing is damaged. The student did not consent to the evaluator. The pedagogical contract was broken silently. Zuboff's argument about informational asymmetry in surveillance capitalism applies here with uncomfortable precision: the party with more visibility into the other's data holds structural power over them, and the classroom is not immune to the pattern (Zuboff, 2019).

Faculty who use AI to grade or generate feedback often do so because they have no realistic alternative. An adjunct teaching four sections of composition at two institutions cannot give every draft the reading it deserves. A tenure-track professor with a 4-4 load and research expectations cannot conference with every student. The labor conditions push faculty toward automation, and the automation quietly degrades the work. Faculty who are using AI in evaluation are not the villains of this story. The institutions that structured the labor conditions that force the choice are. Transparency here includes disclosing the labor context — not as excuse, but as honest accounting of why the automation exists. A syllabus that says "because of course load and enrollment, I use AI-assisted feedback on early drafts; final grades remain my human judgment" is more honest, and more useful to students, than a syllabus that pretends otherwise.

State it explicitly. "I use AI in the following ways in this course..." followed by specifics: whether AI is used for initial grading, for feedback generation, for administrative automation. State what human judgment supervises the automation and how students can appeal its conclusions. State what the institution has procured and what you have chosen. Treat your use of AI with the same rigor you expect from students: disclosed, purposeful, and accountable. Note that this principle does not include detection. Faculty Principle 4 argues that AI detection tools are unreliable, biased, and pedagogically harmful, and should not be used at all. Mutual transparency does not mean disclosing your use of a flawed tool; it means not using it.

The tension worth naming is the one already named in the labor paragraph above, and it bears repeating: mutual transparency will reveal labor conditions that institutions would prefer not to acknowledge. A syllabus that honestly discloses AI-assisted grading raises questions about why the faculty member needs the assistance, which is a question about workload, class size, and compensation. Institutions should welcome the disclosure and the questions. In practice, many will not. Faculty choosing to be transparent about their own AI use may do so at professional risk, and the framework should name that honestly: mutual transparency is a collective practice, and individual faculty implementing it while the institution hides its own practices carry the cost of the asymmetry. The framework is not naive about this. It argues that the cost is worth paying, and that collective action among faculty — at the level of department, union, and senate — is the means by which the cost becomes sustainable.

The shield in this principle is the pedagogical contract itself: the agreement between student and teacher that makes the classroom a space of real engagement rather than monitored throughput. Mutual transparency is what keeps that contract intact in the age of automated evaluation. Without it, the contract is a fiction maintained by silence. With it, the work we ask students to do stands on the same ground we are willing to stand on ourselves.


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

Muchas instituciones que ahora prohíben el uso no divulgado de IA por estudiantes han comenzado, silenciosamente, a usar IA ellas mismas: en plataformas de calificación, generadores de retroalimentación, toma de decisiones administrativas, y marcaje por integridad académica. Se requiere que el estudiante sea transparente sobre el uso de IA. A la institución no. El estudiante enfrenta sanción por uso de IA que la institución considera inapropiado. La institución no enfrenta sanción equivalente por el suyo. Eso es automatización asimétrica, y es éticamente indefensible bajo cualquier principio que la institución articularía públicamente. Si la transparencia es un valor, debe ser recíproca.

La asimetría no es solo una cuestión de justicia. Degrada la relación pedagógica. Cuando un estudiante escribe bajo la suposición de que una persona leerá, cierto tipo de cuidado es posible. El estudiante toma riesgos, muestra pensamiento en desarrollo, expone la incertidumbre, porque se asume que la audiencia es capaz de reconocer esos movimientos como aprendizaje. Cuando el estudiante descubre, después del hecho, que el trabajo fue evaluado algorítmicamente, la confianza requerida para ese tipo de escritura queda dañada. El estudiante no consintió al evaluador. El contrato pedagógico se rompió en silencio. El argumento de Zuboff sobre la asimetría informacional en el capitalismo de la vigilancia aplica aquí con precisión incómoda: la parte con mayor visibilidad sobre los datos de la otra sostiene poder estructural sobre ella, y el aula no es inmune a ese patrón (Zuboff, 2019).

El profesorado que usa IA para calificar o generar retroalimentación a menudo lo hace porque no tiene una alternativa realista. Una persona adjunta enseñando cuatro secciones de redacción en dos instituciones no puede dar a cada borrador la lectura que merece. Una persona titular con carga 4-4 y expectativas de investigación no puede conferenciar con cada estudiante. Las condiciones laborales empujan al profesorado hacia la automatización, y la automatización degrada el trabajo silenciosamente. El profesorado que está usando IA en la evaluación no es el villano de esta historia. Las instituciones que estructuraron las condiciones laborales que obligan la elección sí lo son. La transparencia aquí incluye divulgar el contexto laboral — no como excusa, sino como contabilidad honesta de por qué existe la automatización. Un programa de estudios que diga «debido a la carga docente y la matrícula, uso retroalimentación asistida por IA en borradores tempranos; las calificaciones finales permanecen como mi juicio humano» es más honesto, y más útil para el estudiantado, que un programa que finja lo contrario.

Exprésenlo explícitamente. «Uso la IA en las siguientes maneras en este curso...» seguido por los específicos: si la IA se usa para calificación inicial, para generación de retroalimentación, para automatización administrativa. Indique qué juicio humano supervisa la automatización y cómo se pueden apelar sus conclusiones. Diga qué ha contratado la institución y qué ha elegido usted. Trate su uso de IA con el mismo rigor que espera del estudiantado: divulgado, con propósito, y con rendición de cuentas. Note que este principio no incluye detección. El Principio Docente 4 argumenta que las herramientas de detección de IA son poco fiables, sesgadas, y pedagógicamente corrosivas, y que no deben usarse. La transparencia mutua no significa divulgar su uso de una herramienta defectuosa; significa no usarla.

La tensión que vale la pena nombrar es la que ya se nombró en el párrafo laboral anterior, y vale la pena reiterar: la transparencia mutua va a revelar condiciones laborales que las instituciones preferirían no reconocer. Un programa de estudios que divulgue honestamente calificación asistida por IA plantea preguntas sobre por qué el docente necesita la asistencia, que es una pregunta sobre carga laboral, tamaño de clase, y remuneración. Las instituciones deberían dar la bienvenida a la divulgación y a las preguntas. En la práctica, muchas no lo harán. El profesorado que elige ser transparente sobre su propio uso de IA puede hacerlo a riesgo profesional, y el marco debe nombrar eso honestamente: la transparencia mutua es una práctica colectiva, y el profesorado individual que la implemente mientras la institución oculta sus propias prácticas carga con el costo de la asimetría. El marco no es ingenuo sobre esto. Sostiene que el costo vale la pena pagarlo, y que la acción colectiva del profesorado — al nivel de departamento, sindicato, y senado académico — es el medio por el cual el costo se vuelve sostenible.

El escudo en este principio es el contrato pedagógico mismo: el acuerdo entre estudiante y docente que hace del aula un espacio de compromiso real y no de productividad monitoreada. La transparencia mutua es lo que mantiene ese contrato intacto en la era de la evaluación automatizada. Sin ella, el contrato es una ficción sostenida por el silencio. Con ella, el trabajo que le pedimos al estudiantado descansa sobre el mismo terreno sobre el que estamos dispuestos a pararnos nosotros.


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.
Faculty Principle 2 Principio Docente 2 Shield Escudo

Protecting the Pedagogical Safe Space: From Fear to Informed Engagement

Protegiendo el espacio pedagógico seguro: del miedo al compromiso informado

The Principle: The pedagogical safe space is not a shelter from AI. It is a training ground where students move from fear to informed engagement. Surveillance-aversion is widespread, well-founded, and pedagogically useful when converted. The faculty job is neither to validate the fear nor to override it, but to supply the literacy that turns fear into skill.

El Principio: El espacio pedagógico seguro no es un refugio de la IA. Es un campo de entrenamiento donde el estudiantado se mueve del miedo al compromiso informado. La aversión a la vigilancia es amplia, bien fundada, y pedagógicamente útil cuando se convierte. El trabajo del profesorado no es ni validar el miedo ni pasarlo por alto, sino proporcionar la alfabetización que convierte el miedo en habilidad.

In Practice: Expect that a subset of your students will arrive AI-averse and surveillance-aware. Do not dismiss the aversion. Teach how data flows, what gets captured, what no-training contracts mean, and what the difference is between avoidance and informed engagement. Fear becomes skill when knowledge arrives.

En la práctica: Espere que una parte de su estudiantado llegue con aversión a la IA y con conciencia de vigilancia. No descarte la aversión. Enseñe cómo fluyen los datos, qué se captura, qué significan los contratos de no-entrenamiento, y cuál es la diferencia entre la evitación y el compromiso informado. El miedo se vuelve habilidad cuando llega el conocimiento.

Read the thorough explanation Leer la explicación detallada

I teach COMS 101 — Information Management and Privacy — at Sacramento State. The course was born from my own doctoral research, which proved that cognition was legible through digital behavioral traces, and from my resulting conviction that students needed a structured introduction to the information environment they were already living in. I have been teaching a version of this course since the early 2000s. Each semester, my enrollment is roughly thirty students. Each semester, somewhere in the range of seven of those thirty arrive with visible aversion to the systems the course discusses. They do not want to be on social media. They do not want to touch AI. They perceive, correctly, that there is a great deal happening with their data that they cannot see, and they do not like it.

That aversion is intensifying. Students arriving in 2026 carry more awareness of data extraction than students arriving in 2020. This is not because they have read policy papers. It is because they have lived inside the outcomes. They have seen acquaintances exposed by leaked chat logs. They have seen the way targeted content works on their feeds. They have heard, often from older relatives, the generic advice that has been circulating since the early 2010s: don't put anything online you don't want read aloud. The aversion is a rational response to a partially understood environment.

The pedagogical temptation is to validate the fear. Tell the students they are right to refuse; celebrate the avoidance as critical stance. I have resisted this temptation because I think it is pedagogically unserious. Avoidance is not a sustainable position for an educated adult in the twenty-first century. The student who refuses to touch AI will encounter AI on a job application, in a medical encounter, in a loan decision, in a rental screening, in an interaction with an institution they cannot refuse. Pure avoidance leaves that student less prepared than their engaged peer, not more. The fear is valid; the avoidance is insufficient.

The alternative is conversion. By the end of the course, most of the surveillance-averse students engage with AI tools more critically and more effectively than peers who arrived enthusiastic. They know what to protect, what to refuse, and what to use. They read terms of service. They ask the question what is this session costing me? before they run the session. They maintain local tools alongside commercial ones. They understand the difference between refusing to touch AI and refusing to touch AI without first understanding what they are refusing. They came in with fear. They leave with specification. That conversion is the pedagogical safe space.

The safe space is not a shelter. It is a classroom where the student's fear is treated as data — accurate information about the environment — and paired with the literacy that makes the fear actionable. The faculty member's job is not to argue the student out of the fear or to override it with assignments that force engagement. It is to give the student the conceptual equipment to move from "I don't want a trail" to "I can choose what trail to leave." That move is the work of the course.

There is a tension here worth naming. Some students carry surveillance concerns tied to specific identity-based vulnerability — undocumented students, students whose families have reason to distrust institutional data systems, students with disability-related privacy needs, students from communities that have been over-surveilled by the state. Their aversion is not a generic anxiety that can be converted by a literate course. It is a rational response to a specific risk. The pedagogy must accommodate this. Non-AI alternatives for students with grounded reasons to refuse must remain available. The conversion approach works for students whose aversion is diffuse fear; it must not be weaponized against students whose aversion is informed self-protection.

The shield in this principle is not the institution's. It is the student's, sharpened by the course. They leave holding a shield they know how to use. That is the pedagogical safe space I am arguing for.


References

  • Bonilla, D. (2003). The Medium is the Measure of Itself [Doctoral dissertation]. Syracuse University.

Enseño COMS 101 — Gestión de la Información y la Privacidad — en Sacramento State. El curso nació de mi propia investigación doctoral, que demostró que la cognición era legible a través de rastros conductuales digitales, y de mi convicción resultante de que el estudiantado necesitaba una introducción estructurada al entorno informacional en el que ya estaba viviendo. He estado enseñando una versión de este curso desde principios de los 2000. Cada semestre, mi matrícula es de aproximadamente treinta estudiantes. Cada semestre, alrededor de siete de esos treinta llegan con aversión visible a los sistemas que el curso discute. No quieren estar en redes sociales. No quieren tocar la IA. Perciben, correctamente, que está pasando mucho con sus datos que no pueden ver, y no les gusta.

Esa aversión se está intensificando. Estudiantes que llegan en 2026 cargan con más conciencia de la extracción de datos que estudiantes que llegaban en 2020. Esto no es porque hayan leído documentos de política pública. Es porque han vivido dentro de los resultados. Han visto a conocidos expuestos por registros de chat filtrados. Han visto cómo funciona el contenido dirigido en sus feeds. Han escuchado, a menudo de parientes mayores, el consejo genérico que ha circulado desde principios de los 2010: no pongas en línea nada que no quieras que se lea en voz alta. La aversión es una respuesta racional a un entorno parcialmente entendido.

La tentación pedagógica es validar el miedo. Decirle a los estudiantes que tienen razón en rehusar; celebrar la evitación como postura crítica. He resistido esa tentación porque pienso que es pedagógicamente poco seria. La evitación no es una posición sostenible para una persona adulta educada del siglo veintiuno. El estudiante que rehúsa tocar la IA la encontrará en una solicitud de empleo, en un encuentro médico, en una decisión de préstamo, en una revisión para rentar, en una interacción con una institución que no puede rehusar. La evitación pura deja a ese estudiante menos preparado que a su par comprometido, no más. El miedo es válido; la evitación es insuficiente.

La alternativa es la conversión. Al final del curso, la mayoría de los estudiantes con aversión a la vigilancia interactúan con las herramientas de IA más críticamente y más efectivamente que sus pares que llegaron con entusiasmo. Saben qué proteger, qué rehusar, y qué usar. Leen los términos de servicio. Se hacen la pregunta ¿qué está costando esta sesión? antes de correr la sesión. Mantienen herramientas locales junto con herramientas comerciales. Entienden la diferencia entre rehusar tocar la IA y rehusar tocar la IA sin entender primero lo que están rehusando. Entraron con miedo. Salen con especificación. Esa conversión es el espacio pedagógico seguro.

El espacio seguro no es un refugio. Es un aula donde el miedo del estudiante es tratado como dato — información precisa sobre el entorno — y emparejado con la alfabetización que vuelve el miedo accionable. El trabajo del docente no es argumentar al estudiante fuera del miedo ni pasarlo por alto con consignas que obliguen el compromiso. Es darle al estudiante el equipamiento conceptual para moverse de «no quiero un rastro» a «yo puedo elegir qué rastro dejar». Ese movimiento es el trabajo del curso.

Hay una tensión aquí que vale la pena nombrar. Algunos estudiantes cargan con preocupaciones de vigilancia vinculadas a vulnerabilidades específicas basadas en identidad: estudiantes sin documentos, estudiantes cuyas familias tienen razones para desconfiar de los sistemas institucionales de datos, estudiantes con necesidades de privacidad relacionadas con discapacidad, estudiantes de comunidades que han sido sobre-vigiladas por el Estado. Su aversión no es una ansiedad genérica que pueda ser convertida por un curso alfabetizador. Es una respuesta racional a un riesgo específico. La pedagogía debe acomodar eso. Las alternativas no-IA para estudiantes con razones fundadas para rehusar deben permanecer disponibles. El enfoque de conversión funciona para estudiantes cuya aversión es miedo difuso; no debe ser utilizado como arma contra estudiantes cuya aversión es autoprotección informada.

El escudo en este principio no es de la institución. Es del estudiante, afilado por el curso. Salen sosteniendo un escudo que saben cómo usar. Ese es el espacio pedagógico seguro por el que estoy argumentando.


Referencias

  • Bonilla, D. (2003). The Medium is the Measure of Itself [Tesis doctoral]. Syracuse University.
Faculty Principle 3 Principio Docente 3 Sword Espada

Active Deconstruction of Bias: Teach the Cultural Audit

Deconstrucción activa del sesgo: enseñar la auditoría cultural

The Principle: AI image and text generators are not culturally neutral. They fail at culturally specific objects, and when they fail, they fail in one direction — toward the hegemonic visual and linguistic register of their training data. Teaching students to see this failure is not optional. It is the baseline competency of AI literacy.

El Principio: Los generadores de imagen y texto por IA no son culturalmente neutrales. Fallan ante objetos culturalmente específicos, y cuando fallan, lo hacen en una dirección: hacia el registro visual y lingüístico hegemónico de sus datos de entrenamiento. Enseñar al estudiantado a ver ese fallo no es opcional. Es la competencia básica de la alfabetización en IA.

In Practice: Design bias-audit exercises into your assignments. Ask students to prompt AI for something they know intimately — a regional dish, a local artifact, a specific dialect, a family figure — and document what the machine gets wrong. The failure modes are the curriculum.

En la práctica: Diseñe ejercicios de auditoría de sesgo en sus consignas. Pida al estudiantado que dé una instrucción a la IA sobre algo que conozcan íntimamente — un platillo regional, un artefacto local, un dialecto específico, una figura familiar — y documenten lo que la máquina falla. Los modos de falla son el currículo.

Read the thorough explanation Leer la explicación detallada

I type "huaco retrato" into DALL-E 3. The Moche portrait vessels — pre-Columbian Peruvian ceramics (c. 100–700 CE) that capture individual human faces with a sculptural realism rivaling any Renaissance bust — are among the world's earliest and most sophisticated traditions of individuated portraiture. DALL-E 3 returns a generic human face. The ceramic is gone. The tradition is gone. The object has been collapsed into the generic portrait, and the generic is coded as human, not vessel. This failure is not a gap in data. It is a direction.

When generative AI fails at culturally specific artifacts, it does not fail randomly. It fails toward its training corpus — which means toward English-language sources, toward a Western visual vocabulary, and toward the flattest statistical average of what "portrait" means globally. The Moche vessel lacks the statistical density that would let DALL-E 3 hold it as an object in its own right. The system substitutes what it can hold — a human face, probably read as "Peruvian" because the prompt was in Spanish — and presents the substitution with the same visual confidence it brings to everything else. That confidence is the problem. The system does not know what it does not know, and it does not admit the gap.

This is not a technical limitation to be solved in a future release. It is a structural property of any system trained on the internet as it currently exists: the corpus is English-dominant, Anglophone-centered, and biased toward what has been photographed, written about, and digitized at scale. Items outside that center — regional artifacts, indigenous languages, local historical events, sub-dominant aesthetic traditions — do not simply appear with lower fidelity. They are absorbed into whatever the system can produce, which means they are absorbed into the hegemonic center. Paola Ricaurte Quijano has called this the coloniality of data: the reproduction, in algorithmic form, of the epistemic hierarchies that organized earlier centuries of extraction (Ricaurte Quijano, 2019).

In my own 2023 study, Generating Universal Narratives: Challenges for the Authentic Representation of Latin American Cultures in Media Production with AI, I documented this failure mode across several artifact categories, image generators, and prompt languages. The pattern was consistent. Prompting in Spanish does not make the system Latin American. It makes it an Anglophone system generating what it has learned to recognize as "Hispanic" — which is not at all the same thing. The coloniality is not in the interface language. It is in the training distribution.

What does this mean for teaching? It means that faculty cannot treat AI image and text generators as culturally competent authorities, and the response is not to ban them but to turn them into pedagogical material. The failure modes are the curriculum. Ask students to prompt AI for something they know intimately — a family dish, a regional dialect phrase, a local artifact, a specific historical figure from their community — and document what the machine gets wrong. Teach them to see the substitution and name it. Teach them that the confidence of the output is unrelated to the accuracy of the output. A student who has audited DALL-E 3 on a huaco retrato learns something no textbook can give: that generative AI is not an oracle. It is an aggregator. Its failures reveal the shape of its aggregation, and the shape is political.

A counter-effort is worth naming. Chile's Centro Nacional de Inteligencia Artificial (CENIA) is leading Latam-GPT, an initiative to build a large language model trained on Latin American corpora in Spanish and Portuguese, with explicit attention to the epistemic and linguistic needs of the region. The project will not eliminate the structural problem — every model is partial, and a regional model has its own gaps — but its existence is precisely the response the preceding critique is asking for: representational competence being built from within the region, by researchers who know what the Anglophone systems are missing. The open question is whether universities like ours will adopt such models when they are ready, or whether procurement inertia will keep us on the default path.

I want to name a tension honestly, because the framework around these principles will not survive if it pretends the labor is free. Designing bias-audit assignments, running demonstrations, responding to student outputs — all of it requires faculty time that many of us, especially contingent and adjunct colleagues, do not have. "Teach the audit" is easy to say and hard to compensate. If we expect faculty to do this work without reducing course loads, providing development stipends, or building shared assignment libraries, we are asking the most precarious members of the profession to carry the weight of a system-wide failure. That is not a reason to abandon the pedagogy. It is a reason to demand the structural conditions that make the pedagogy sustainable — and to name those conditions as the responsibility of administrations, not individuals.

The sword in this principle is the audit itself: the active move of prompting AI, documenting failure, and teaching students to see what the machine has erased. We cannot accept the machine's confidence as an epistemic authority over our own communities. We are the epistemic authority. The machine is the tool. Teaching that reversal — and teaching it concretely, with artifacts students recognize from their own families and regions — is the baseline of AI literacy in 2026.


References

  • Bonilla, D. (2023). Generating universal narratives: Challenges for the authentic representation of Latin American cultures in media production with AI.
  • Ricaurte Quijano, P. (2019). Data epistemologies, the coloniality of power, and resistance. Television & New Media, 20(4), 350–365.
  • Centro Nacional de Inteligencia Artificial (CENIA), Chile. Latam-GPT.

Escribo «huaco retrato» en DALL-E 3. Los vasos-retrato Moche — cerámicas preincaicas peruanas (c. 100–700 d.C.) que capturan rostros humanos individuales con un realismo escultórico comparable al de cualquier busto renacentista — están entre las tradiciones más tempranas y sofisticadas del mundo en retrato individuado. DALL-E 3 devuelve un rostro humano genérico. La cerámica desapareció. La tradición desapareció. El objeto ha sido colapsado en el genérico retrato, y el genérico está codificado como humano, no como vaso. Esa falla no es un hueco en los datos. Es una dirección.

Cuando la IA generativa falla ante artefactos culturalmente específicos, no falla al azar. Falla hacia su corpus de entrenamiento, lo que significa hacia fuentes en inglés, hacia un vocabulario visual occidental, y hacia el promedio estadístico más plano de lo que «retrato» significa globalmente. El vaso Moche carece de la densidad estadística que le permitiría a DALL-E 3 sostenerlo como objeto en sí mismo. El sistema sustituye lo que puede sostener — un rostro humano, probablemente leído como «peruano» porque la instrucción estaba en español — y presenta la sustitución con la misma confianza visual que trae a todo lo demás. Esa confianza es el problema. El sistema no sabe lo que no sabe, y no admite el hueco.

Esto no es una limitación técnica a ser resuelta en una versión futura. Es una propiedad estructural de cualquier sistema entrenado sobre internet tal como existe actualmente: el corpus es dominantemente en inglés, centrado en lo anglófono, y sesgado hacia lo que ha sido fotografiado, escrito, y digitalizado a escala. Los elementos fuera de ese centro — artefactos regionales, lenguas indígenas, eventos históricos locales, tradiciones estéticas no dominantes — no simplemente aparecen con menor fidelidad. Son absorbidos en lo que el sistema puede producir, lo que significa que son absorbidos en el centro hegemónico. Paola Ricaurte Quijano ha llamado a esto la colonialidad de los datos: la reproducción, en forma algorítmica, de las jerarquías epistémicas que organizaron siglos previos de extracción (Ricaurte Quijano, 2019).

En mi propio estudio de 2023, Generating universal narratives: Challenges for the authentic representation of Latin American cultures in media production with AI, documenté este modo de falla a través de varias categorías de artefactos, generadores de imagen, y lenguas de instrucción. El patrón fue consistente. Dar la instrucción en español no vuelve al sistema latinoamericano. Lo vuelve un sistema anglófono generando lo que ha aprendido a reconocer como «hispano», que no es en absoluto lo mismo. La colonialidad no está en la lengua de la interfaz. Está en la distribución de entrenamiento.

¿Qué significa esto para la enseñanza? Significa que el profesorado no puede tratar a los generadores de imagen y texto por IA como autoridades culturalmente competentes, y la respuesta no es prohibirlos sino convertirlos en material pedagógico. Los modos de falla son el currículo. Pida al estudiantado que dé una instrucción a la IA sobre algo que conozcan íntimamente — un platillo familiar, una frase en dialecto regional, un artefacto local, una figura histórica específica de su comunidad — y documenten lo que la máquina falla. Enséñeles a ver la sustitución y a nombrarla. Enséñeles que la confianza del resultado no está relacionada con la precisión del resultado. Un estudiante que ha auditado DALL-E 3 sobre un huaco retrato aprende algo que ningún libro de texto puede darle: que la IA generativa no es un oráculo. Es un agregador. Sus fallas revelan la forma de su agregación, y la forma es política.

Un esfuerzo contrario vale la pena nombrar. El Centro Nacional de Inteligencia Artificial de Chile (CENIA) lidera Latam-GPT, una iniciativa para construir un modelo de lenguaje extenso entrenado sobre corpus latinoamericanos en español y portugués, con atención explícita a las necesidades epistémicas y lingüísticas de la región. El proyecto no eliminará el problema estructural — todo modelo es parcial, y un modelo regional tiene sus propios huecos — pero su existencia es precisamente la respuesta que la crítica anterior está pidiendo: competencia representacional construida desde dentro de la región, por investigadores que saben lo que los sistemas anglófonos están omitiendo. La pregunta abierta es si universidades como la nuestra adoptarán esos modelos cuando estén listos, o si la inercia de compras nos mantendrá en el camino por defecto.

Quiero nombrar una tensión honestamente, porque el marco alrededor de estos principios no sobrevivirá si finge que el trabajo es gratuito. Diseñar consignas de auditoría de sesgo, correr demostraciones, responder a los resultados de estudiantes, todo eso requiere tiempo docente que muchos de nosotros, especialmente las y los colegas contingentes y adjuntos, no tenemos. «Enseñar la auditoría» es fácil de decir y difícil de compensar. Si esperamos que el profesorado haga este trabajo sin reducir cargas docentes, sin proveer estipendios de desarrollo, o sin construir bibliotecas compartidas de consignas, estamos pidiéndole a los miembros más precarios de la profesión que carguen con el peso de una falla sistémica. Esa no es una razón para abandonar la pedagogía. Es una razón para exigir las condiciones estructurales que vuelven la pedagogía sostenible, y para nombrar esas condiciones como responsabilidad de las administraciones, no de los individuos.

La espada en este principio es la auditoría misma: el movimiento activo de darle instrucciones a la IA, documentar la falla, y enseñar al estudiantado a ver lo que la máquina ha borrado. No podemos aceptar la confianza de la máquina como autoridad epistémica sobre nuestras propias comunidades. Nosotros somos la autoridad epistémica. La máquina es la herramienta. Enseñar esa inversión — y enseñarla concretamente, con artefactos que el estudiantado reconozca de sus propias familias y regiones — es la base de la alfabetización en IA en 2026.


Referencias

  • Bonilla, D. (2023). Generating universal narratives: Challenges for the authentic representation of Latin American cultures in media production with AI.
  • Ricaurte Quijano, P. (2019). Data epistemologies, the coloniality of power, and resistance. Television & New Media, 20(4), 350–365.
  • Centro Nacional de Inteligencia Artificial (CENIA), Chile. Latam-GPT.
Faculty Principle 4 Principio Docente 4 Shield Escudo

Reject AI Detection: The Case Against Algorithmic Suspicion

Rechazar la detección de IA: el caso contra la sospecha algorítmica

The Principle: AI detection software does not detect AI. It performs a statistical guess about writing style and punishes students whose prose does not match its narrow expectation of "human" text. The tools are unreliable, biased against multilingual students, and pedagogically corrosive. Refuse to use them.

El Principio: El software de detección de IA no detecta IA. Ejecuta una conjetura estadística sobre el estilo de escritura y castiga al estudiantado cuya prosa no encaja en su estrecha expectativa de texto «humano». Las herramientas son poco fiables, sesgadas contra estudiantes multilingües, y pedagógicamente corrosivas. Rehúsense a usarlas.

In Practice: Design assessments around the student's process, not their prose. Conference with students about their drafts. Ask them to defend their choices in conversation. When you suspect AI use, address it as a pedagogical conversation, not as a forensic accusation supported by a percentage.

En la práctica: Diseñe evaluaciones alrededor del proceso del estudiante, no de su prosa. Conferencie con estudiantes sobre sus borradores. Pídales defender sus elecciones en conversación. Cuando sospeche uso de IA, aborde el tema como conversación pedagógica, no como acusación forense respaldada por un porcentaje.

Read the thorough explanation Leer la explicación detallada

I know of a graduate student whose first attempt at her comprehensive examination was denied on suspicion that she had used AI. No proof was produced at the time. None has been produced since. She was ordered to retake the examination, and she is now preparing to do so. She argues, credibly, that she deliberately did not use AI to complete the work. The evidence against her was the evaluator's feeling about the prose. The consequence was months of her academic career.

That case is not exceptional. It is the operational pattern of AI detection as it is currently deployed in higher education — accusation based on probability, consequence imposed regardless. The tools marketed as "AI detectors" do not, in any forensic sense, detect AI. They compute statistical features of writing — perplexity, burstiness, word-choice distributions — and compare those features against patterns that commercial AI outputs tend to share. The result is a number the tool presents as a confidence score. It is not a confidence score. It is a statistical guess about style, and the guess is wrong often enough to ruin careers.

The wrongness is not randomly distributed. The writing most likely to be flagged as "AI-generated" is writing that shares superficial features with AI output: simpler sentence structure, narrower lexical range, conventional transitions. That describes the writing of many students who are still learning English, many students with certain cognitive and learning differences, and many students whose educational preparation did not include extensive training in stylistic variation. A study by Liang and colleagues documented that detectors flag the writing of non-native English speakers as "AI-generated" at rates dramatically higher than native speakers — in some test conditions, flagging more than half of non-native samples as machine-written while flagging a fraction of that among native writers (Liang et al., 2023). The detector is not finding AI. It is finding unfamiliarity with a particular variety of written English, and calling the unfamiliarity evidence of machine origin.

The Academic Senate of the California State University recognized this formally in Resolution AS-3695-24/AA, noting the unreliability of AI detection tools and the serious risks they pose to students wrongly accused on the basis of these flawed outputs (ASCSU, 2024). That resolution is not an outlier. It reflects a growing consensus among institutions that have actually examined how the tools perform: they do harm, they do not work, and their deployment is not justified by any coherent theory of academic integrity.

If detection does not work, what replaces it? The answer is pedagogy, not technology. Design assignments that generate artifacts of process — annotated bibliographies, drafts, revision histories, in-class writing, oral defense of choices — so that the object of evaluation is the student's engagement with the work over time, not a single terminal document evaluated against an algorithm's confidence score. When you suspect misuse, have a conversation. Ask the student to walk you through their reasoning. Ask them to explain a passage, extend an argument, defend a choice. A student who has not engaged with the work will not be able to do this. A student who has engaged will.

The tension here is labor. Process-based assessment takes faculty time — conferencing, reading drafts, designing low-stakes checkpoints, building oral components. For the contingent and adjunct faculty who carry a disproportionate share of undergraduate teaching, this is labor that is not currently compensated. When the institution refuses to fund the time required for real assessment, detection software becomes a seductive substitute because it looks efficient. It is not efficient. It is fast and wrong, and the wrongness lands on the students least equipped to absorb it. Rejecting detection is therefore not just a pedagogical stance but a labor claim: real assessment requires real resources, and the alternative is automated harm.

The shield in this principle is institutional. It is the faculty member's refusal to deploy a tool that does not work against students who cannot defend themselves against its errors. It is the department chair's refusal to require detection reports in academic integrity cases. It is the committee's refusal to treat a percentage from an unreliable instrument as evidence of anything. The graduate student I know of is preparing to retake an exam she should not have been required to retake. Every time an institution rejects detection as evidence, one less student ends up in her position.


References

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf
  • Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023). GPT detectors are biased against non-native English writers. Patterns, 4(7), 100779.

Conozco el caso de una estudiante de posgrado a quien le negaron su primer intento de examen comprensivo bajo la sospecha de que había usado IA. No se produjo prueba en ese momento. No se ha producido desde entonces. Se le ordenó volver a presentar el examen, y ahora se prepara para hacerlo. Ella argumenta, de manera creíble, que deliberadamente no usó IA para realizar el trabajo. La evidencia en su contra era la corazonada del evaluador sobre la prosa. La consecuencia fue meses de su carrera académica.

Ese caso no es excepcional. Es el patrón operativo de la detección de IA tal como está actualmente desplegada en la educación superior: acusación basada en probabilidad, consecuencia impuesta de todos modos. Las herramientas vendidas como «detectores de IA» no detectan IA, en ningún sentido forense. Computan características estadísticas de la escritura — perplejidad, ráfaga, distribuciones de elección de palabras — y comparan esas características contra patrones que los resultados comerciales de IA tienden a compartir. El resultado es un número que la herramienta presenta como un puntaje de confianza. No es un puntaje de confianza. Es una conjetura estadística sobre el estilo, y la conjetura es errónea con suficiente frecuencia como para arruinar carreras.

El error no se distribuye al azar. La escritura con mayor probabilidad de ser marcada como «generada por IA» es la escritura que comparte características superficiales con el producto de IA: estructura oracional más simple, rango léxico más estrecho, transiciones convencionales. Eso describe la escritura de muchos estudiantes que todavía están aprendiendo inglés, muchos estudiantes con ciertas diferencias cognitivas y de aprendizaje, y muchos estudiantes cuya preparación educativa no incluyó entrenamiento extensivo en variación estilística. Un estudio de Liang y colegas documentó que los detectores marcan la escritura de hablantes no nativos del inglés como «generada por IA» a tasas dramáticamente más altas que la de hablantes nativos — en algunas condiciones de prueba, marcando más de la mitad de las muestras de no-nativos como escritas por máquina mientras marcan una fracción de esa cantidad entre escritores nativos (Liang et al., 2023). El detector no está encontrando IA. Está encontrando falta de familiaridad con una variedad particular del inglés escrito, y llamando a esa falta de familiaridad evidencia de origen mecánico.

El Senado Académico de la California State University reconoció esto formalmente en la Resolución AS-3695-24/AA, haciendo constar la falta de fiabilidad de las herramientas de detección de IA y los graves riesgos que representan para estudiantes falsamente acusados sobre la base de esos resultados defectuosos (ASCSU, 2024). Esa resolución no es un caso aislado. Refleja un consenso creciente entre instituciones que han examinado en realidad cómo se desempeñan las herramientas: causan daño, no funcionan, y su despliegue no se justifica bajo ninguna teoría coherente de integridad académica.

Si la detección no funciona, ¿qué la reemplaza? La respuesta es la pedagogía, no la tecnología. Diseñe consignas que generen artefactos del proceso: bibliografías comentadas, borradores, historiales de revisión documentados, escritura en clase, defensa oral de las elecciones — de modo que el objeto de evaluación sea el compromiso del estudiante con el trabajo a lo largo del tiempo, no un único documento terminal evaluado contra el puntaje de confianza de un algoritmo. Cuando sospeche mal uso, tenga una conversación. Pida al estudiante que le guíe a través de su razonamiento. Pídale que explique un pasaje, extienda un argumento, defienda una elección. Un estudiante que no se comprometió con el trabajo no podrá hacerlo. Un estudiante que se comprometió sí podrá.

La tensión aquí es laboral. La evaluación basada en proceso toma tiempo docente: conferenciar, leer borradores, diseñar puntos de control de bajo riesgo, construir componentes orales. Para el profesorado adjunto y contingente que carga con una parte desproporcionada de la docencia de pregrado, ese trabajo no está actualmente compensado. Cuando la institución rehúsa financiar el tiempo que requiere la evaluación real, el software de detección se vuelve un sustituto seductor porque parece eficiente. No es eficiente. Es rápido y equivocado, y la equivocación aterriza sobre los estudiantes menos preparados para absorberla. Rechazar la detección es, por tanto, no solo una postura pedagógica sino una reivindicación laboral: la evaluación real requiere recursos reales, y la alternativa es daño automatizado.

El escudo en este principio es institucional. Es el rechazo docente a desplegar una herramienta que no funciona contra estudiantes que no pueden defenderse de sus errores. Es el rechazo de la jefatura de departamento a requerir reportes de detección en casos de integridad académica. Es el rechazo del comité a tratar un porcentaje de un instrumento poco fiable como evidencia de cualquier cosa. La estudiante de posgrado de quien sé se prepara para volver a presentar un examen que no debería haber sido obligada a volver a presentar. Cada vez que una institución rechaza la detección como evidencia, una estudiante menos termina en su posición.


Referencias

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolución AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf
  • Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023). GPT detectors are biased against non-native English writers. Patterns, 4(7), 100779.
Faculty Principle 5 Principio Docente 5 Sword Espada

The Ethics of Tool Selection

La ética de la selección de herramientas

The Principle: Tool-selection ethics requires informed deliberation at both ends — neither adopting without weighing costs, nor rejecting without understanding what is being refused. Every AI tool carries a supply chain: compute, energy, water, labor, and geopolitical entanglement. The ethical choice is the deliberate one.

El Principio: La ética de la selección de herramientas requiere deliberación informada en ambos extremos — ni adoptar sin pesar los costos, ni rehusar sin entender lo que se está rehusando. Toda herramienta de IA carga con una cadena de suministro: cómputo, energía, agua, trabajo humano, y entrelazamiento geopolítico. La elección ética es la deliberada.

In Practice: Before mandating an AI tool for a course or a research workflow, audit its costs. Before refusing one, audit what you are refusing. Prefer smaller, efficient, open-weight, or locally-hosted models when they serve the pedagogical need. Do not mandate high-compute AI for trivial tasks.

En la práctica: Antes de mandatar una herramienta de IA para un curso o un flujo de investigación, audite sus costos. Antes de rehusar una, audite lo que está rehusando. Prefiera modelos más pequeños, eficientes, de pesos abiertos, o con hosting local cuando sirvan a la necesidad pedagógica. No mandate IA de alto cómputo para tareas triviales.

Read the thorough explanation Leer la explicación detallada

A prompt is not free. Behind the interface, a query initiates a cascade: data center compute, energy draw, water consumption for cooling, and upstream labor performed by people in low-wage labor markets. None of this is visible to the user. All of it is real. Every time a classroom requires a commercial AI tool for an assignment, some share of these costs is being consumed on behalf of the course. The question this principle insists on is whether those costs are proportionate to what the assignment asks, and whether the tool being used is the right tool for the task rather than the default one.

Kate Crawford's Atlas of AI documents what the interface conceals: data centers that draw electricity at industrial scale and water at municipal scale, often in regions already facing water scarcity; content moderation and reinforcement-learning-from-human-feedback labor performed overwhelmingly in Global South labor markets where workers are paid pennies per task to view graphic and traumatic content so that the final interface can feel seamless (Crawford, 2021). This is the substrate of the AI we hand our students. It does not become less real by being abstracted behind a clean prompt box. When we mandate a tool, we are also mandating our students' participation in this supply chain.

The Academic Senate of the California State University has formally recognized the significant environmental costs of large-scale AI as a consideration our adoption strategies must engage with (ASCSU, 2025). The recognition is correct. The question is what it implies for specific classroom decisions. A faculty member assigning a brainstorm exercise does not need to send thirty students to a frontier model running on a hyperscale cluster; a smaller model, a local deployment, or a non-AI alternative may serve the pedagogical goal with a fraction of the footprint. The informed choice is the proportionate choice.

The informed choice applies symmetrically to refusal. As the preamble to this document argues, reflexive rejection of AI without understanding what is being refused is the mirror image of uncritical adoption. Both skip the deliberation step. Both replace judgment with posture. A faculty member who refuses to evaluate AI-assisted work on the grounds that the tool is suspect is making an ethical claim; a faculty member who refuses without having examined the work, the discipline, or the tool is not. The ethics of tool selection is not a binary. It is a practice of thoughtful engagement with what adoption and refusal each entail.

What does the practice look like? Before mandating a tool for a course, audit it. What is the compute footprint of the assigned interaction? Who performs the labor that makes the output feel competent? What are the vendor's other commercial and political commitments? Is an open-weight model, a locally-hosted model, or a smaller specialized model adequate for the task? Before refusing a tool, perform the equivalent audit on the refusal. What is actually being refused? What does the refusal ask students to do instead? Is the refusal a pedagogical judgment or a default? The discipline of audit applies in both directions.

The tension here is infrastructure. Sovereign, open-weight, or institutionally-hosted AI deployments that would let faculty match tool to task with real precision are technically demanding, expensive to run, and rare on public university campuses. Many faculty cannot actually deploy the alternatives the principle recommends, because the alternatives are not available to them. This is a structural problem masquerading as an individual-virtue problem. "Choose your tools ethically" reads like personal advice. It is actually a budget fight, a procurement fight, and an institutional capacity fight. Faculty making ethical selection decisions from the options their institution has procured deserve institutional decisions that widen those options.

The sword in this principle is the informed choice itself — the deliberate, evidence-grounded selection (or refusal) that weighs costs, benefits, and alternatives with the same seriousness. A reader who has examined the supply chain of a tool, considered the alternatives, and selected one with reasons is wielding a sword. A reader who has done the same audit and refused is wielding the same sword in the other direction. Both are acts of direction. Neither is a posture. The difference between AI literacy and AI ideology is exactly this work.


References

  • Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
  • Academic Senate of the California State University. (2025). Urging caution in the use of generative AI (Resolution AS-3754-25/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2024-2025/3754.pdf

Una instrucción no es gratuita. Detrás de la interfaz, una consulta inicia una cascada: cómputo en centros de datos, consumo energético, consumo de agua para el enfriamiento, y trabajo humano aguas arriba realizado por personas en mercados laborales de bajo salario. Nada de esto es visible para el usuario. Todo es real. Cada vez que un aula requiere una herramienta comercial de IA para una consigna, alguna parte de estos costos se está consumiendo en nombre del curso. La pregunta que este principio insiste en plantear es si esos costos son proporcionales a lo que la consigna pide, y si la herramienta que se está usando es la herramienta correcta para la tarea en lugar de la herramienta por defecto.

El Atlas of AI de Kate Crawford documenta lo que la interfaz oculta: centros de datos que extraen electricidad a escala industrial y agua a escala municipal, a menudo en regiones que ya enfrentan escasez hídrica; trabajo de moderación de contenido y de aprendizaje por refuerzo con retroalimentación humana realizado abrumadoramente en mercados laborales del Sur Global, donde las personas trabajadoras reciben centavos por tarea para ver y etiquetar contenido gráfico y traumático, de modo que la interfaz final se sienta fluida (Crawford, 2021). Ese es el sustrato de la IA que entregamos al estudiantado. No se vuelve menos real por estar abstraído detrás de un cuadro de instrucción pulcro. Cuando mandatamos una herramienta, también estamos mandando la participación de nuestro estudiantado en esa cadena de suministro.

El Senado Académico de la California State University ha reconocido formalmente los costos ambientales significativos de la IA a gran escala como consideración con la que nuestras estrategias de adopción deben comprometerse (ASCSU, 2025). El reconocimiento es correcto. La pregunta es qué implica para decisiones específicas de aula. Un docente que asigna un ejercicio de tormenta de ideas no necesita enviar a treinta estudiantes a un modelo frontera corriendo sobre un clúster hiperescala; un modelo más pequeño, un despliegue local, o una alternativa no-IA puede servir a la meta pedagógica con una fracción de la huella. La elección informada es la elección proporcional.

La elección informada aplica simétricamente al rechazo. Como argumenta el preámbulo de este documento, el rechazo reflexivo de la IA sin entender lo que se está rehusando es la imagen especular de la adopción acrítica. Ambos se saltan el paso de deliberación. Ambos reemplazan el juicio con postura. Un docente que se rehúsa a evaluar trabajo asistido por IA bajo el argumento de que la herramienta es sospechosa está formulando una aseveración ética; un docente que se rehúsa sin haber examinado el trabajo, la disciplina, o la herramienta, no lo está haciendo. La ética de la selección de herramientas no es un binario. Es una práctica de compromiso reflexivo con lo que la adopción y el rechazo implican respectivamente.

¿Cómo se ve la práctica? Antes de mandatar una herramienta para un curso, audítela. ¿Cuál es la huella de cómputo de la interacción asignada? ¿Quién realiza el trabajo que hace que el resultado se sienta competente? ¿Cuáles son los otros compromisos comerciales y políticos del proveedor? ¿Es un modelo de pesos abiertos, un modelo con hosting local, o un modelo especializado más pequeño adecuado para la tarea? Antes de rehusar una herramienta, realice la auditoría equivalente sobre el rechazo. ¿Qué está siendo rehusado realmente? ¿Qué le pide el rechazo al estudiantado que haga en cambio? ¿Es el rechazo un juicio pedagógico o un modo por defecto? La disciplina de la auditoría aplica en ambas direcciones.

La tensión aquí es infraestructura. Los despliegues soberanos, de pesos abiertos, o de hosting institucional de IA que le permitirían al profesorado emparejar la herramienta a la tarea con precisión real son técnicamente exigentes, costosos de operar, y raros en campus públicos. Mucho del profesorado no puede de hecho desplegar las alternativas que el principio recomienda, porque las alternativas no están disponibles para ellos. Este es un problema estructural disfrazado de problema de virtud individual. «Elija sus herramientas éticamente» se lee como consejo personal. Es en realidad una pelea presupuestal, una pelea de compras, y una pelea de capacidad institucional. El profesorado que toma decisiones éticas de selección desde las opciones que su institución ha contratado merece decisiones institucionales que amplíen esas opciones.

La espada en este principio es la elección informada misma: la selección (o el rechazo) deliberada y basada en evidencia que pesa costos, beneficios, y alternativas con la misma seriedad. Un lector que ha examinado la cadena de suministro de una herramienta, considerado las alternativas, y seleccionado una con razones, está esgrimiendo una espada. Un lector que ha hecho la misma auditoría y ha rehusado está esgrimiendo la misma espada en la dirección contraria. Ambos son actos de dirección. Ninguno es postura. La diferencia entre alfabetización en IA e ideología de IA es exactamente este trabajo.


Referencias

  • Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
  • Academic Senate of the California State University. (2025). Urging caution in the use of generative AI (Resolución AS-3754-25/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2024-2025/3754.pdf
Faculty Principle 6 Principio Docente 6 Shield Escudo

Sovereign Infrastructure: What Our Vendor Choices Inherit

Infraestructura soberana: qué heredan nuestras elecciones de proveedor

The Principle: Reliance on proprietary, dual-use AI vendors creates structural dependency on companies whose commercial and defense commitments are not our own. Sovereign infrastructure — open-weight models, institutional hosting, local control — is not aspirational. It is the minimum condition for academic independence in the AI era.

El Principio: La dependencia de proveedores propietarios de IA de uso dual crea dependencia estructural de compañías cuyos compromisos comerciales y de defensa no son los nuestros. La infraestructura soberana — modelos de pesos abiertos, hosting institucional, control local — no es aspiracional. Es la condición mínima para la independencia académica en la era de la IA.

In Practice: Advocate within your institution for sovereign or open-weight AI deployments alongside or in place of proprietary contracts. Teach students the difference. When proprietary contracts are the only option, insist on contractual no-training clauses and transparency about the vendor's other commitments.

En la práctica: Abogue dentro de su institución por despliegues de IA soberanos o de pesos abiertos, junto con o en lugar de contratos propietarios. Enseñe al estudiantado la diferencia. Cuando los contratos propietarios sean la única opción, insista en cláusulas contractuales de no-entrenamiento y en transparencia sobre los otros compromisos del proveedor.

Read the thorough explanation Leer la explicación detallada

The California State University has signed a ten-million-dollar agreement with OpenAI for ChatGPT access covering all students in the system. OpenAI revised its usage policy in January 2024 to permit military and national-security applications, removing language that had previously prohibited such uses. Since then, the company has publicly announced defense partnerships and national-security contracts. These facts sit in the same procurement file. The vendor we have selected to deliver AI-assisted education to hundreds of thousands of students in a public university system is also a vendor with active defense commitments. I am not arguing the CSU should have chosen differently. I am arguing we must understand what the choice has made us structurally adjacent to.

Academic freedom rests on a degree of infrastructural independence. When faculty governance struggled throughout the twentieth century to establish the autonomy of research, curriculum, and assessment from external commercial or political interests, the struggle was about institutional sovereignty: the right of the university, as a community of scholars, to determine its own intellectual commitments. Generative AI is rapidly becoming the substrate of much of that work — text generation, research assistance, tutoring, administrative automation. When the substrate runs on a vendor whose other commitments include defense directives, a share of our autonomy has been outsourced to a company whose obligations are not our obligations.

The American Association of University Professors has issued warnings about precisely this dynamic, noting that uncritical adoption of proprietary AI in core academic functions erodes shared governance and replaces pedagogical judgment with algorithmic directives shaped by commercial interests (AAUP, 2025). The AAUP's framing is structural, not alarmist. The concern is not that a specific vendor will behave badly. The concern is that any institutional reliance on a proprietary, dual-use infrastructure creates a dependency relationship in which our capacity to make our own decisions about our own educational mission is gradually shaped by the vendor's other priorities.

The response is not to walk away from the contract. That is not practically available, and in many cases the alternatives are not yet ready at the scale a public university system requires. The response is to: first, face the choice honestly, without the marketing rhetoric that presents commercial AI adoption as pure educational opportunity and elides the dual-use context; second, advocate at every level of institutional governance for sovereign alternatives — open-weight models, institutionally-hosted deployments, local compute — that would reduce dependency over time; third, negotiate harder contractual protections around data use, training exemptions, and transparency about the vendor's other commitments; and fourth, teach our students and our colleagues what the vendor choice has inherited.

The tension here is acute. Sovereign AI infrastructure is expensive. It requires capital investment, technical staff, and ongoing operational support that most public universities cannot currently afford. "Use open-weight models" is easy to say and hard to deploy when a faculty member has no IT support, no departmental budget for compute, and a course scheduled to begin next week. Pure position-taking without the structural investment to back it becomes a barrier: the open-weight demand without the resources to meet it just leaves faculty using ChatGPT anyway, because ChatGPT is what the institution procured. Demanding sovereignty is therefore a budget fight, a procurement fight, and a policy fight — not an individual virtue.

The shield in this principle is institutional. It is the capacity of a university to teach, research, and administer without ceding the digital substrate of that work to an external vendor whose commitments are not shared. The shield is built by faculty governance that names the structural tension and refuses to pretend it does not exist, by procurement decisions that prioritize sovereignty alongside price, by system-level investments in alternative infrastructure, and by a sustained cultural refusal to treat "the vendor we signed with" as the end of the conversation. The shield is not available to us in finished form. We have to build it.


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

La California State University ha firmado un acuerdo de diez millones de dólares con OpenAI para acceso a ChatGPT que cubre a todos los estudiantes del sistema. OpenAI revisó su política de uso en enero de 2024 para permitir aplicaciones militares y de seguridad nacional, retirando lenguaje que previamente prohibía esos usos. Desde entonces, la compañía ha anunciado públicamente alianzas de defensa y contratos de seguridad nacional. Esos hechos reposan en el mismo expediente de compras. El proveedor que hemos seleccionado para entregar educación asistida por IA a cientos de miles de estudiantes en un sistema público de universidades es también un proveedor con compromisos activos de defensa. No sostengo que la CSU debiera haber elegido de otra manera. Sostengo que debemos entender a qué nos ha vuelto estructuralmente adyacentes la elección.

La libertad académica descansa sobre un grado de independencia infraestructural. Cuando el autogobierno del profesorado luchó a lo largo del siglo veinte para establecer la autonomía de la investigación, del currículo, y de la evaluación frente a intereses comerciales o políticos externos, la lucha era sobre soberanía institucional: el derecho de la universidad, como comunidad de académicos, a determinar sus propios compromisos intelectuales. La IA generativa se está volviendo rápidamente el sustrato de mucho de ese trabajo — generación de texto, asistencia de investigación, tutoría, automatización administrativa. Cuando el sustrato corre sobre un proveedor cuyos otros compromisos incluyen directivas de defensa, una parte de nuestra autonomía ha sido externalizada a una compañía cuyas obligaciones no son nuestras obligaciones.

La Asociación Americana de Profesores Universitarios (AAUP) ha emitido advertencias sobre precisamente esta dinámica, haciendo constar que la adopción acrítica de IA propietaria en funciones académicas centrales erosiona el autogobierno compartido y reemplaza el juicio pedagógico con directivas algorítmicas moldeadas por intereses comerciales (AAUP, 2025). El encuadre de la AAUP es estructural, no alarmista. La preocupación no es que un proveedor específico se comporte mal. La preocupación es que cualquier dependencia institucional sobre infraestructura propietaria de uso dual crea una relación de dependencia en la que nuestra capacidad para tomar nuestras propias decisiones sobre nuestra propia misión educativa es gradualmente moldeada por las otras prioridades del proveedor.

La respuesta no es retirarse del contrato. Eso no está prácticamente disponible, y en muchos casos las alternativas aún no están listas a la escala que un sistema público universitario requiere. La respuesta es: primero, enfrentar la elección honestamente, sin la retórica de mercadeo que presenta la adopción comercial de IA como pura oportunidad educativa y que omite el contexto de uso dual; segundo, abogar en cada nivel del autogobierno institucional por alternativas soberanas — modelos de pesos abiertos, despliegues con hosting institucional, cómputo local — que reducirían la dependencia con el tiempo; tercero, negociar protecciones contractuales más fuertes alrededor del uso de datos, exenciones de entrenamiento, y transparencia sobre los otros compromisos del proveedor; y cuarto, enseñar al estudiantado y a los colegas lo que la elección de proveedor ha heredado.

La tensión aquí es aguda. La infraestructura soberana de IA es costosa. Requiere inversión de capital, personal técnico, y apoyo operativo continuo que la mayoría de las universidades públicas actualmente no puede costear. «Usen modelos de pesos abiertos» es fácil de decir y difícil de desplegar cuando un docente no tiene soporte técnico, no tiene presupuesto departamental para cómputo, y tiene un curso programado para comenzar la próxima semana. Tomar posturas puras sin la inversión estructural para respaldarlas se vuelve una barrera: la exigencia de pesos abiertos sin los recursos para satisfacerla simplemente deja al profesorado usando ChatGPT de todos modos, porque ChatGPT es lo que la institución contrató. Exigir soberanía es, por lo tanto, una pelea presupuestal, una pelea de compras, y una pelea de política pública — no una virtud individual.

El escudo en este principio es institucional. Es la capacidad de una universidad para enseñar, investigar, y administrar sin ceder el sustrato digital de ese trabajo a un proveedor externo cuyos compromisos no son compartidos. El escudo se construye mediante el autogobierno del profesorado que nombra la tensión estructural y rehúsa pretender que no existe; mediante decisiones de compra que priorizan la soberanía junto con el precio; mediante inversiones al nivel del sistema en infraestructura alternativa; y mediante un rechazo cultural sostenido a tratar «el proveedor con el que firmamos» como el fin de la conversación. El escudo no está disponible para nosotros en forma terminada. Tenemos que construirlo.


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

About the Author

Sobre el Autor

My research has focused for decades on computer-mediated communication, interactive media, and the intersection of technology and pedagogy. For a comprehensive list of my publications and academic outputs, please visit my Research Profile.

Durante décadas, mi investigación se ha centrado en la comunicación mediada por computadora, los medios interactivos y la intersección entre tecnología y pedagogía. Para consultar una lista exhaustiva de mis publicaciones y producción académica, sírvase visitar mi Perfil de Investigación.