Principles for Cognitive and Pedagogical Sovereignty

Principios para la Soberanía Cognitiva y Pedagógica

A Critical AI Framework for Higher Education

Un Marco Crítico de IA para la Educación Superior

By Diego Bonilla, Ph.D.
Por Diego Bonilla, Ph.D.

The Preamble: The Sword and the Shield

El Preámbulo: La Espada y el Escudo

Contextual Note (March 2026): Recent geopolitical and commercial shifts—including the entanglement of proprietary AI vendors with defense directives—have fundamentally altered the risk profile of generative AI. What was once seen merely as a productivity tool is now recognized as dual-use infrastructure. This framework responds to that reality by taking a strong stance on data sovereignty, infrastructural independence, and human agency.

Nota Contextual (Marzo 2026): Los recientes cambios geopolíticos y comerciales —incluyendo el enredo de los proveedores propietarios de IA con directivas de defensa— han alterado fundamentalmente el perfil de riesgo de la IA generativa. Lo que antes se veía simplemente como una herramienta de productividad, ahora se reconoce como una infraestructura de uso dual. Este marco responde a esa realidad adoptando una postura firme sobre la soberanía de los datos, la independencia de la infraestructura y la agencia humana.

Generative Artificial Intelligence is the most powerful cognitive amplifier we have ever built. It offers unprecedented opportunities to personalize learning, brainstorm ideas, and scale human effort. However, this power must be wielded ethically. AI is not a neutral tool; it is a complex sociotechnical system that tracks behavior, relies on massive environmental resources, and reflects the cultural and commercial biases of its training data.

La Inteligencia Artificial generativa es el amplificador cognitivo más poderoso que jamás hayamos construido. Ofrece oportunidades sin precedentes para personalizar el aprendizaje, generar ideas y escalar el esfuerzo humano. Sin embargo, este poder debe ejercerse de manera ética. La IA no es una herramienta neutral; es un sistema sociotécnico complejo que rastrea el comportamiento, depende de recursos ambientales masivos y refleja los sesgos culturales y comerciales de sus datos de entrenamiento.

In higher education, we must approach AI as both a "sword" to be mastered and a "shield" to be raised. We must learn to direct this technology to amplify our human potential, while fiercely protecting our unique voices, our privacy, and the academic integrity of the university. This framework translates these vital principles into everyday practice.

En la educación superior, debemos abordar la IA tanto como una "espada" que debe dominarse como un "escudo" que debe levantarse. Debemos aprender a dirigir esta tecnología para amplificar nuestro potencial humano, mientras protegemos ferozmente nuestras voces únicas, nuestra privacidad y la integridad académica de la universidad. Este marco traduce estos principios vitales en la práctica diaria.

A Note on Methodology & Transparency

Nota de Transparencia

In the spirit of the principles outlined in this document, I wish to disclose the collaborative process used to create it. This framework is not the result of traditional AI prompting, but of a rigorous, human-directed agentic workflow. I served as the cognitive architect—drawing on decades of research and pedagogical experience in Computer-Mediated Communication, ICT Literacy, and interactive media to define the core principles, inject specific pedagogical contexts, and steer the ideological direction.

En congruencia con los principios esbozados en este documento, deseo transparentar el proceso colaborativo empleado para su creación. Este marco conceptual no es el resultado de la interacción tradicional con una IA mediante instrucciones aisladas, sino de un riguroso flujo de trabajo agéntico bajo dirección humana. He fungido como el arquitecto cognitivo del proyecto, valiéndome de décadas de investigación y experiencia pedagógica en Comunicación Mediada por Computadora, Alfabetización en TIC y medios interactivos para definir los principios fundamentales, incorporar contextos pedagógicos específicos y orientar la dirección ideológica.

As this document argues, AI cannot substitute for foundational knowledge; it requires domain expertise to audit and direct it effectively. To construct this framework, I utilized an agentic AI development environment (Cursor) powered by Gemini 3.1 Pro. Rather than answering isolated prompts, the AI acted as an integrated production engine—executing high-level human directives to build scripts, format structural details, and synthesize my philosophical constraints into the final interactive documents. The AI served as a powerful cognitive prosthesis, but the conceptual architecture, intellectual accountability, and voice belong entirely to me, the human author.

Tal como se argumenta en este documento, la IA no puede sustituir el conocimiento fundacional; requiere de pericia en el dominio de conocimiento para ser auditada y dirigida con eficacia. Para construir este marco, utilicé un entorno agéntico de desarrollo de IA (Cursor), impulsado por Gemini 3.1 Pro. En lugar de responder a consignas aisladas, la IA operó como un motor de producción integrado, ejecutando directrices humanas de alto nivel para construir scripts, dar formato a detalles estructurales y sintetizar mis restricciones filosóficas en los documentos interactivos finales. La IA sirvió como una potente prótesis cognitiva, pero la arquitectura conceptual, la responsabilidad intelectual y la voz pertenecen en su totalidad a mí, el autor humano.

Part I: The Student Lens — Rights and Responsibilities

Parte I: La Lente del Estudiante — Derechos y Responsabilidades

A framework for students: focusing on how to harness the power of AI while protecting your own mind, data, and unique voice.

Un marco para los estudiantes: centrado en cómo aprovechar el poder de la IA mientras se protege la propia mente, los datos y la voz única.

Student Principle 1 Principio del Estudiante 1

You Own the Final Result (Undelegable Accountability)

Eres Dueño del Resultado Final (Responsabilidad Indelegable)

The Principle: You can delegate the computation to a machine, but you can never delegate the accountability. You are ultimately responsible for the accuracy, ethics, and integrity of anything you submit.

El Principio: Puedes delegar el cálculo a una máquina, pero nunca puedes delegar la responsabilidad. En última instancia, eres responsable de la precisión, ética e integridad de cualquier cosa que entregues.

In Practice: Always fact-check AI outputs. If the AI invents a source, provides biased information, or plagiarizes, it is your responsibility to catch and correct it before putting your name on the work.

En la Práctica: Siempre verifica los resultados de la IA. Si la IA inventa una fuente, proporciona información sesgada o plagia, es tu responsabilidad detectarlo y corregirlo antes de poner tu nombre en el trabajo.

Read the thorough explanation Leer la explicación detallada

When you submit a piece of work under your name, you are making a professional and intellectual claim. You are claiming not just the final product, but the process of reasoning, discovery, and synthesis that created it. Using a generative AI tool is akin to using a powerful, yet notoriously unreliable, calculator; you are still the one responsible for understanding the problem, structuring the query, and, most importantly, verifying the answer. Your degree signifies your capacity for critical judgment, not merely your ability to operate a machine. This principle of undelegable accountability is therefore not a restriction, but a profound affirmation of your agency. It asserts that you are the final authority, the human guarantor of the work’s integrity, validity, and intellectual merit. In an age of automation, this capacity for critical oversight is not just an academic requirement—it is your most durable and valuable professional skill.

This responsibility is rooted in a core pedagogical commitment: you must build foundational knowledge before you can ethically or effectively leverage advanced tools. Over-reliance on AI without this foundation is a recipe for intellectual fragility. You cannot audit a machine’s legal analysis if you have not studied foundational case law, nor can you validate its code if you don’t understand the underlying programming principles. This concern is widely shared, with a recent survey noting that 92% of faculty cite student overreliance on AI as a primary threat to learning (AAC&U, 2025). Without a strong intellectual framework of your own, the AI’s output—which can be subtly biased, factually incorrect, or logically unsound—becomes an invisible trap. The goal of your education is not to make you a skilled prompter who is dependent on a black-box system, but to cultivate an expert who can confidently direct, question, and, when necessary, override the machine (UNESCO, 2023).

Furthermore, we must critically recognize that the dominant AI models are not neutral, universal, or disembodied oracles. They are sociotechnical artifacts, overwhelmingly trained on English-language data from a specific cultural context, and increasingly entangled with the strategic and defense directives of the nations that house their proprietary APIs. This has profound implications. These models structurally flatten and degrade non-English languages, often failing to capture the nuance of Spanish, Portuguese, and regional dialects, thereby rendering them incompetent as cultural authorities for Latin American or other global realities. To accept their output uncritically is to risk perpetuating a deep linguistic and colonial bias (UNESCO, 2023). Your accountability, therefore, includes acting as a critical filter, bringing your own linguistic, cultural, and contextual expertise to bear on tools that inherently lack it. Institutional autonomy depends on nurturing this human expertise rather than outsourcing our intellectual infrastructure to foreign, dual-use technologies.

Because these systems can “hallucinate”—producing confident, well-written falsehoods—your role as the final arbiter of truth is non-negotiable. In recognition of this, and of the profound flaws in AI surveillance, this university rejects the use of so-called “AI detection” software. These tools have been shown to be mathematically unreliable, commercially biased, and discriminatory against non-native English speakers and writers with diverse linguistic backgrounds (ASCSU, 2024). Instead of investing in a punitive and flawed system of surveillance, we are investing in you. We will focus on pedagogical strategies that center your process, your specifications, and your demonstrated mastery. Your intellectual property and privacy will be protected from the flawed judgments of automated systems that often do more harm than good.

Looking forward, as AI evolves from simple generators into more autonomous “agents” capable of taking action, this principle of undelegable accountability becomes even more vital. You are, and must remain, the human “circuit breaker.” Before an AI agent is authorized to execute a task with irreversible consequences—be it in a lab simulation, a financial model, or a design project—you are the one who must grant the final approval. You are the locus of ethical and intellectual responsibility. This policy is designed to prepare you for that future, ensuring that you are not merely a passive user of technology, but its critical and conscientious master. True academic freedom and shared governance in the age of AI depend on an educated and empowered community that refuses to delegate its core intellectual and ethical responsibilities (AAUP, 2025).


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Al presentar un trabajo bajo su nombre, usted formula una aseveración profesional e intelectual. Reivindica no solo el producto final, sino el proceso de razonamiento, descubrimiento y síntesis que lo originó. Utilizar una herramienta de IA generativa es análogo a emplear una calculadora potente, pero célebremente poco fiable; usted sigue siendo el responsable de comprender el problema, estructurar la consulta y, fundamentalmente, verificar la respuesta. Su título universitario acredita su capacidad de juicio crítico, no meramente su habilidad para operar una máquina. Este principio de Responsabilidad indelegable no es, por tanto, una restricción, sino una afirmación profunda de su propia agencia. Sostiene que usted es la autoridad final, el garante humano de la integridad, validez y mérito intelectual del trabajo. En una era de automatización, esta capacidad de supervisión crítica no es solo un requisito académico: es su habilidad profesional más duradera y valiosa.

Esta responsabilidad se arraiga en un compromiso pedagógico central: es imperativo construir un conocimiento fundacional antes de poder apalancar herramientas avanzadas de manera ética o efectiva. La dependencia excesiva en la IA sin estos cimientos es una receta para la fragilidad intelectual. No es posible auditar el análisis jurídico de una máquina si no se ha estudiado la jurisprudencia fundamental, ni validar su código si no se comprenden los principios de programación subyacentes. Esta preocupación es ampliamente compartida; una encuesta reciente señala que el 92% del profesorado cita la dependencia excesiva de los estudiantes en la IA como una amenaza primordial para el aprendizaje (AAC&U, 2025). Sin un marco intelectual propio y sólido, el resultado que ofrece la IA —que puede ser sutilmente sesgado, fácticamente incorrecto o lógicamente inconsistente— se convierte en una trampa invisible. El objetivo de su formación no es convertirle en un hábil operador de instrucciones (prompts) dependiente de un sistema de caja negra, sino cultivar a un experto que pueda dirigir, cuestionar y, cuando sea necesario, invalidar a la máquina con plena confianza (UNESCO, 2023).

Además, debemos reconocer críticamente que los modelos de IA dominantes no son oráculos neutrales, universales ni incorpóreos. Son artefactos sociotécnicos, entrenados de forma abrumadora con datos en lengua inglesa procedentes de un contexto cultural específico, y cada vez más imbricados en las directivas estratégicas y de defensa de las naciones que albergan sus API propietarias. Esto tiene profundas implicaciones. Estos modelos aplanan y degradan estructuralmente las lenguas no inglesas, a menudo sin lograr capturar los matices del español, el portugués y los dialectos regionales, lo que los vuelve incompetentes como autoridades culturales para las realidades latinoamericanas u otras realidades globales. Aceptar sus resultados de manera acrítica es arriesgarse a perpetuar un profundo sesgo lingüístico y colonial (UNESCO, 2023). Su responsabilidad, por lo tanto, incluye actuar como un filtro crítico, aportando su propia pericia lingüística, cultural y contextual a herramientas que carecen inherentemente de ella. La autonomía institucional depende de nutrir esta pericia humana en lugar de externalizar nuestra infraestructura intelectual a tecnologías foráneas de uso dual.

Dado que estos sistemas pueden “alucinar” —produciendo falsedades bien redactadas y con aparente seguridad— su papel como árbitro final de la verdad es innegociable. En reconocimiento de esto, y de las profundas fallas en la vigilancia mediante IA, esta universidad rechaza el uso del así llamado software de “detección de IA”. Se ha demostrado que estas herramientas son matemáticamente poco fiables, comercialmente sesgadas y discriminatorias contra los hablantes no nativos de inglés y los autores con trasfondos lingüísticos diversos (ASCSU, 2024). En lugar de invertir en un sistema de vigilancia punitivo y deficiente, estamos invirtiendo en usted. Nos enfocaremos en estrategias pedagógicas que pongan en el centro su proceso, sus especificaciones y su dominio demostrado. Su propiedad intelectual y su privacidad serán protegidas de los juicios erróneos de sistemas automatizados que, a menudo, causan más perjuicio que beneficio.

De cara al futuro, a medida que la IA evoluciona de simples generadores a “agentes” más autónomos capaces de ejecutar acciones, este principio de Responsabilidad indelegable se vuelve aún más vital. Usted es, y debe seguir siendo, el “freno de emergencia humano”. Antes de que un agente de IA sea autorizado para ejecutar una tarea con consecuencias irreversibles —ya sea en una simulación de laboratorio, un modelo financiero o un proyecto de diseño— es usted quien debe otorgar la aprobación final. Usted es el locus de la responsabilidad ética e intelectual. Esta política está diseñada para prepararle para ese futuro, asegurando que no sea un mero usuario pasivo de la tecnología, sino su maestro crítico y consciente. La verdadera libertad académica y la gobernanza compartida en la era de la IA dependen de una comunidad educada y empoderada que se niega a delegar sus responsabilidades intelectuales y éticas fundamentales (AAUP, 2025).


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Student Principle 2 Principio del Estudiante 2

Protect Your Unique Human Voice (Resisting Monoculture)

Protege tu Voz Humana Única (Resistencia al Monocultivo)

The Principle: AI produces highly standardized, statistically average text. Your unique background, cultural voice, and way of thinking are your greatest assets. Do not let a machine flatten your voice into commercial uniformity.

El Principio: La IA produce texto altamente estandarizado y estadísticamente promedio. Tus antecedentes únicos, tu voz cultural y tu forma de pensar son tus mayores activos. No dejes que una máquina aplane tu voz hacia una uniformidad comercial.

In Practice: Use AI to brainstorm, organize your thoughts, or check grammar, but do not let it write your final sentences. Ensure your authentic voice, including your cultural and linguistic heritage, remains the heart of your work.

En la Práctica: Usa la IA para hacer lluvia de ideas, organizar tus pensamientos o revisar la gramática, pero no dejes que escriba tus oraciones finales. Asegúrate de que tu voz auténtica, incluyendo tu herencia cultural y lingüística, siga siendo el corazón de tu trabajo.

Read the thorough explanation Leer la explicación detallada

Your university education is an invitation to develop one of the most powerful assets you will ever possess: your unique intellectual and creative voice. This voice is more than just your writing style; it is the synthesis of your lived experience, your cultural background, your critical perspective, and the specific ways you connect ideas. However, the uncritical use of large language models (LLMs) poses a direct threat to this development by creating a powerful pull towards what we call an “epistemic monoculture”—a flattening of intellectual diversity into a single, statistically probable, and culturally generic mode of expression. When millions of users draw from the same few proprietary models, trained on overlapping datasets, the outputs begin to converge. The subtle, the regional, the dissenting, and the truly novel get sanded down in favor of a smooth, predictable, and ultimately homogenous style. Resisting this gravitational pull is not an act of technological fear; it is a necessary act of intellectual self-preservation.

The architecture of this emerging monoculture is not neutral. The dominant generative AI tools are developed and controlled by a handful of U.S.-based corporations whose models are now deeply entangled with national strategic interests. This creates a dependency on a "sovereign infrastructure" that is not our own, embedding a specific set of cultural and linguistic biases into the very tools we use to think. For our Latin American context, this is a critical vulnerability. These models are overwhelmingly trained on English-language data, causing them to structurally misunderstand and degrade the richness of Spanish, Portuguese, and our diverse regional dialects. They often function as instruments of linguistic imperialism, "correcting" authentic local expressions into a sanitized, globally-acceptable variant. When a student uses these tools to write about a uniquely regional cultural phenomenon, the AI may erase the very vocabulary that gives the concept its meaning, performing a kind of digital epistemic colonization. As UNESCO (2023) warns, algorithmic bias is not a minor glitch but a systemic risk that can perpetuate and amplify existing inequalities.

This is why we insist on the principle of foundation before leverage. You cannot critically partner with an AI system from a position of ignorance. Using an LLM to write about a topic you haven't mastered is like asking a calculator to solve a word problem you don't know how to set up; the output may look correct, but you have no way to verify its logic, its assumptions, or its subtle errors. True academic leverage comes from building your own foundational knowledge first. Only then can you write a sufficiently rigorous prompt (a "specification") that guides the tool toward a useful outcome, and only then can you audit its output, identifying its hallucinations, biases, and clichés. This concern is not theoretical; a recent survey by the American Association of Colleges and Universities (AAC&U, 2025) found that 92% of faculty cite student overreliance on AI as a primary threat to learning, precisely because it short-circuits this essential process of building foundational knowledge.

Furthermore, we must address the flawed and inequitable systems of surveillance that have emerged alongside these tools. So-called "AI detection" software is not a reliable arbiter of academic integrity. On the contrary, these tools are mathematically unsound, demonstrably biased against non-native English speakers, and prone to false positives that can derail a student's academic career (ASCSU, 2024). The university's focus, therefore, will not be on a punitive regime of technological surveillance. We reject this "AI detection snake oil." Instead, our pedagogical focus will be on the quality of specification and the development of your distinct authorial voice. The fear of being falsely accused by a faulty algorithm creates a chilling effect, pressuring students to adopt a simpler, more generic writing style to avoid being flagged—ironically, pushing them to write more like a machine. This is pedagogically counterproductive and ethically indefensible.

Ultimately, protecting your unique human voice is about exercising your agency in an increasingly automated world. As AI systems evolve from simple chatbots into autonomous "agents" capable of taking action, the need for a vigilant human "in the loop" becomes paramount. You are that human. You are the circuit breaker. Your capacity for critical judgment, ethical reasoning, and culturally-attuned communication is not something to be outsourced. It is the very purpose of your education to cultivate these irreplaceable human skills. We encourage you to engage with these powerful new tools, but to do so critically, skeptically, and with a fierce commitment to ensuring that the technology serves your intellect, not the other way around.


References

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Su formación universitaria es una invitación a desarrollar uno de los activos más poderosos que jamás poseerán: su voz intelectual y creativa única. Esta voz es más que un mero estilo de escritura; es la síntesis de su experiencia vivida, su bagaje cultural, su perspectiva crítica y las formas específicas en que conectan ideas. Sin embargo, el uso acrítico de los modelos lingüísticos a gran escala (LLM, por sus siglas en inglés) representa una amenaza directa para este desarrollo, al crear una poderosa atracción hacia lo que denominamos un «monocultivo epistémico»: un aplanamiento de la diversidad intelectual que la reduce a un modo de expresión único, estadísticamente probable y culturalmente genérico. Cuando millones de usuarios recurren a los mismos y escasos modelos propietarios, entrenados con conjuntos de datos superpuestos, los resultados comienzan a converger. Lo sutil, lo regional, lo disidente y lo verdaderamente novedoso se ven erosionados en favor de un estilo pulido, predecible y, en última instancia, homogéneo. Resistir esta fuerza gravitacional no es un acto de tecnofobia; es un acto necesario de autopreservación intelectual.

La arquitectura de este monocultivo emergente no es neutral. Las herramientas dominantes de IA generativa son desarrolladas y controladas por un reducido número de corporaciones con sede en Estados Unidos, cuyos modelos están ahora profundamente imbricados con intereses estratégicos nacionales. Esto crea una dependencia de una «infraestructura soberana» que no es la nuestra, incrustando un conjunto específico de sesgos culturales y lingüísticos en las mismas herramientas que utilizamos para pensar. Para nuestro contexto latinoamericano, esta es una vulnerabilidad crítica. Estos modelos son entrenados de forma abrumadora con datos en lengua inglesa, lo que les lleva a malinterpretar estructuralmente y a degradar la riqueza del español, del portugués y de nuestros diversos dialectos regionales. A menudo funcionan como instrumentos de imperialismo lingüístico, «corrigiendo» expresiones locales auténticas para convertirlas en una variante higienizada y globalmente aceptable. Cuando un estudiante utiliza estas herramientas para escribir sobre un fenómeno cultural singularmente regional, la IA puede borrar el vocabulario mismo que dota de significado al concepto, llevando a cabo una suerte de colonización epistémica digital. Como advierte la UNESCO (2023), el sesgo algorítmico no es un fallo menor, sino un riesgo sistémico que puede perpetuar y amplificar las desigualdades existentes.

Es por ello que insistimos en el principio de Fundamentos antes que apalancamiento. No es posible colaborar críticamente con un sistema de IA desde una posición de ignorancia. Utilizar un LLM para escribir sobre un tema que no se domina es como pedirle a una calculadora que resuelva un problema razonado que no se sabe cómo plantear; el resultado puede parecer correcto, pero no se tiene forma de verificar su lógica, sus supuestos o sus errores sutiles. El verdadero apalancamiento académico se obtiene al construir primero un conocimiento fundacional propio. Solo entonces se puede redactar una instrucción (una «especificación») lo suficientemente rigurosa como para guiar a la herramienta hacia un resultado útil, y solo entonces se puede auditar su producto, identificando sus alucinaciones, sesgos y clichés. Esta preocupación no es teórica; una encuesta reciente de la Asociación Americana de Colegios y Universidades (AAC&U, 2025) reveló que el 92% del profesorado cita la dependencia excesiva del alumnado en la IA como una amenaza principal para el aprendizaje, precisamente porque cortocircuita este proceso esencial de construcción de conocimiento fundacional.

Además, debemos abordar los sistemas de vigilancia deficientes e inequitativos que han surgido junto a estas herramientas. El llamado software de «detección de IA» no es un árbitro fiable de la integridad académica. Por el contrario, estas herramientas son matemáticamente endebles, demostrablemente sesgadas en contra de los hablantes no nativos de inglés y propensas a falsos positivos que pueden hacer descarrilar la carrera académica de un estudiante (ASCSU, 2024). El enfoque de la universidad, por lo tanto, no se centrará en un régimen punitivo de vigilancia tecnológica. Rechazamos el espejismo de la detección de IA. En su lugar, nuestro enfoque pedagógico se centrará en la calidad de la especificación y en el desarrollo de su voz autoral distintiva. El temor a ser acusado falsamente por un algoritmo defectuoso crea un efecto paralizante, presionando a los estudiantes a adoptar un estilo de escritura más simple y genérico para evitar ser señalados, lo que, irónicamente, los empuja a escribir de una forma más parecida a una máquina. Esto es pedagógicamente contraproducente y éticamente indefendible.

En última instancia, proteger su voz humana única consiste en ejercer su propia agencia en un mundo cada vez más automatizado. A medida que los sistemas de IA evolucionan de simples chatbots a «agentes» autónomos capaces de ejecutar acciones, la necesidad de un vigilante humano en el bucle se vuelve primordial. Ustedes son ese humano. Ustedes son el freno de emergencia humano. Su capacidad de juicio crítico, razonamiento ético y comunicación culturalmente situada no es algo que deba ser externalizado. El propósito mismo de su educación es cultivar estas habilidades humanas insustituibles. Los alentamos a interactuar con estas nuevas y poderosas herramientas, pero a que lo hagan de manera crítica, escéptica y con un compromiso férreo para asegurar que la tecnología sirva a su intelecto, y no a la inversa.


Referencias

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Student Principle 3 Principio del Estudiante 3

Use AI to Challenge Yourself (Foundation Before Leverage)

Usa la IA para Desafiarte a ti Mismo (Fundamentos antes que Apalancamiento)

The Principle: You cannot audit an AI's output if you do not know the material. AI should not be used to bypass the initial learning of core concepts, but to provide productive friction once foundational knowledge is built.

El Principio: No puedes auditar el resultado de una IA si no conoces el material. La IA no debe usarse para eludir el aprendizaje inicial de los conceptos básicos, sino para proporcionar una fricción productiva una vez que se han construido los conocimientos fundamentales.

In Practice: Build your disciplinary foundation first. Then, instead of asking AI for the answer, ask it to act as a debate partner. Prompt it with your thesis and ask for counterarguments to sharpen your own logic.

En la Práctica: Construye primero tus bases disciplinarias. Luego, en lugar de pedirle a la IA la respuesta, pídele que actúe como tu compañero de debate. Dale tu tesis y pide contraargumentos para agudizar tu propia lógica.

Read the thorough explanation Leer la explicación detallada

We encourage you to see generative AI not as a simple assistant, but as an inexhaustible sparring partner—a tool you can use to rigorously challenge your own assumptions and deepen your understanding. The most superficial use of AI is to ask it for a summary or an answer, a process that outsources your thinking and risks atrophy of your own critical faculties. This is a primary concern among educators, with over 92% citing student overreliance on AI as a significant threat to learning (AAC&U, 2025). The most powerful use, however, is to treat the AI as an adversary in the best sense of the word: a tireless debater that forces you to clarify your arguments, find evidence for your claims, and identify weaknesses in your logic. This requires you to engage from a position of strength, using the tool not as a replacement for foundational knowledge, but as a whetstone to sharpen it.

A compelling model for this approach comes from recent experiments at Harvard, where an AI tutor was integrated into their introductory computer science course, CS50. The study found that the AI was most effective not when it gave students the correct code, but when it engaged in a Socratic dialogue, asking probing questions that helped students identify their own errors. It acted as a "rubber duck," a sounding board that could talk back and force a more rigorous process of debugging and reflection. By refusing to provide easy answers, the AI tutor compelled students to build stronger mental models of the underlying concepts. This is the paradigm we advocate for: using AI to prompt you into deeper thought, to simulate a peer review of your draft, or to argue the counterpoint to your thesis so you can strengthen your position.

This adversarial approach is also the most effective defense against the inherent flaws and biases of current AI systems. Generative models are notorious for "hallucinating" facts, perpetuating stereotypes, and presenting biased information with unearned authority (UNESCO, 2023). Without a solid foundation in your subject, you are intellectually defenseless against these algorithmic errors. By adopting a critical, adversarial stance, you shift your role from passive consumer to active auditor. You are not asking "Is this right?" but rather "How might this be wrong? What perspective is missing? What data was this trained on?" This is precisely why our university is moving away from the flawed and biased practice of using AI detection software (ASCSU Resolution 3695-24/AA). Instead of policing usage, we aim to cultivate a sophisticated critical literacy that empowers you to master the tool, rather than be misled by it (EDUCAUSE, 2024).

This critical lens must extend to the technology itself. The most powerful large language models are not neutral, disembodied minds; they are proprietary products developed by a handful of U.S. corporations whose tools are increasingly entangled with military and defense directives. Relying exclusively on these platforms creates a dangerous dependency, outsourcing a core function of our academic mission to external entities with their own commercial and geopolitical agendas (AAUP, 2025). Furthermore, these English-centric models systematically flatten and misrepresent the linguistic and cultural nuances of our region. They struggle with Spanish and Portuguese idioms, fail to grasp local historical contexts, and often perpetuate a colonial worldview. Part of your adversarial practice, then, is to recognize the tool's inherent cultural incompetence and fight to preserve the integrity of your own linguistic and intellectual traditions.

Ultimately, by learning to treat AI as a sparring partner, you are preparing yourself for a future defined by human-machine collaboration. As AI systems become more autonomous, the most valuable human skill will be the capacity to provide critical oversight, to act as the "human in the loop" who can question, redirect, and, when necessary, override the machine (UNESCO, 2023). This is the role of the "circuit breaker"—the expert with deep domain knowledge who can authorize or halt an AI's irreversible actions. The adversarial skills you build in your coursework today—challenging AI outputs, demanding evidence, auditing for bias, and refusing to accept claims at face value—are the very skills that will make you an indispensable leader, rather than a replaceable operator, in the economy of tomorrow.


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Le exhortamos a concebir la IA generativa no como un simple asistente, sino como un inagotable contendiente intelectual —una herramienta que puede utilizar para desafiar rigurosamente sus propios supuestos y profundizar su comprensión. El uso más superficial de la IA consiste en pedirle un resumen o una respuesta, un proceso que terceriza su pensamiento y le expone a la atrofia de sus propias facultades críticas. Esta es una preocupación primordial entre los educadores, donde más del 92% cita la dependencia excesiva de los estudiantes en la IA como una amenaza significativa para el aprendizaje (AAC&U, 2025). El uso más potente, sin embargo, es tratar a la IA como un adversario en el mejor sentido del término: un polemista incansable que le obliga a clarificar sus argumentos, encontrar evidencia para sus afirmaciones e identificar las debilidades de su lógica. Esto requiere que usted interactúe desde una posición de fortaleza, usando la herramienta no como un reemplazo del conocimiento fundamental, sino como una piedra de afilar para aguzarlo.

Un modelo elocuente de este enfoque proviene de experimentos recientes en Harvard, donde un tutor de IA fue integrado en su curso introductorio de ciencias de la computación, CS50. El estudio encontró que la IA era más efectiva no cuando proporcionaba a los estudiantes el código correcto, sino cuando entablaba un diálogo socrático, formulando preguntas incisivas que ayudaban a los estudiantes a identificar sus propios errores. Actuó como un «pato de goma» (rubber duck), una caja de resonancia con capacidad de réplica que forzaba un proceso más riguroso de depuración y reflexión. Al negarse a ofrecer respuestas fáciles, el tutor de IA compelió a los estudiantes a construir modelos mentales más sólidos sobre los conceptos subyacentes. Este es el paradigma que promovemos: utilizar la IA para incitarlo a usted a una reflexión más profunda, para simular una revisión por pares de su borrador, o para argumentar el contrapunto a su tesis de modo que pueda fortalecer su propia postura.

Este enfoque adversarial es también la defensa más eficaz contra los sesgos y defectos inherentes a los sistemas de IA actuales. Los modelos generativos son conocidos por «alucinar» hechos, perpetuar estereotipos y presentar información sesgada con una falsa autoridad (UNESCO, 2023). Sin una base sólida en su disciplina, usted se encuentra intelectualmente indefenso ante estos errores algorítmicos. Al adoptar una postura crítica y adversarial, usted transita de un rol de consumidor pasivo a uno de auditor activo. No se pregunta «¿Es esto correcto?», sino más bien «¿De qué manera podría ser erróneo? ¿Qué perspectiva falta? ¿Con qué datos fue entrenado este modelo?». Es precisamente por esta razón que nuestra universidad se está alejando de la práctica errónea y sesgada de recurrir a el espejismo de la detección de IA (Resolución ASCSU 3695-24/AA). En lugar de vigilar su uso, nuestro objetivo es cultivar una alfabetización crítica y sofisticada que le empodere para dominar la herramienta, en lugar de ser subyugado por ella (EDUCAUSE, 2024).

Esta mirada crítica debe extenderse a la tecnología misma. Los modelos de lenguaje extensos más potentes no son mentes neutrales e incorpóreas; son productos privativos desarrollados por un puñado de corporaciones estadounidenses cuyas herramientas están cada vez más entrelazadas con directivas militares y de defensa. Depender exclusivamente de estas plataformas crea una peligrosa dependencia, tercerizando una función central de nuestra misión académica a entidades externas con sus propias agendas comerciales y geopolíticas (AAUP, 2025). Además, estos modelos anglocéntricos sistemáticamente aplanan y tergiversan los matices lingüísticos y culturales de nuestra región. Tienen dificultades con los modismos del español y el portugués, no logran captar los contextos históricos locales y, a menudo, perpetúan una cosmovisión colonial. Parte de su práctica adversarial, por tanto, consiste en reconocer la incompetencia cultural inherente de la herramienta y luchar por preservar la integridad de sus propias tradiciones lingüísticas e intelectuales.

En última instancia, al aprender a tratar a la IA como un contendiente intelectual, usted se está preparando para un futuro definido por la colaboración humano-máquina. A medida que los sistemas de IA se vuelvan más autónomos, la habilidad humana más valiosa será la capacidad de ejercer una supervisión crítica, de actuar como el humano en el bucle que puede cuestionar, redirigir y, cuando sea necesario, invalidar las decisiones de la máquina (UNESCO, 2023). Este es el papel del freno de emergencia humano: el experto con un sólido conocimiento en su campo que puede autorizar o detener las acciones irreversibles de una IA. Las habilidades adversariales que usted construye hoy en su trabajo académico —cuestionar los resultados de la IA, exigir evidencia, auditar sus sesgos y negarse a aceptar sus afirmaciones sin un análisis crítico— son precisamente las que lo convertirán en un líder indispensable, en lugar de un operador reemplazable, en la economía del mañana.


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Student Principle 4 Principio del Estudiante 4

Be the Director, Not the Managed (Preventing Agentic Wildfire)

Sé el Director, no el Dirigido (Previniendo la Proliferación Agéntica Descontrolada)

The Principle: Power belongs to those who ethically direct algorithms. However, deploying autonomous AI agents to act on your behalf without manual review is academically reckless and invites 'agentic wildfire'.

El Principio: El poder pertenece a quienes dirigen los algoritmos éticamente. Sin embargo, desplegar agentes de IA autónomos para actuar en tu nombre sin revisión manual es académicamente imprudente e invita a un 'fuego incontrolado agéntico'.

In Practice: Always enforce a human-in-the-loop verification process. Review an AI agent's work critically before allowing it to execute tasks, send communications, or compile final research on your behalf.

En la Práctica: Aplica siempre un proceso de verificación con un 'humano en el bucle'. Revisa el trabajo de un agente de IA de manera crítica antes de permitirle ejecutar tareas, enviar comunicaciones o compilar una investigación final en tu nombre.

Read the thorough explanation Leer la explicación detallada

The most significant challenge of our time is not simply learning to use AI, but refusing to be used by it. The new digital divide is not about access, but about agency. On one side are those who can critically direct complex computational systems to augment their own unique intellect—the "directors." On the other are those who passively accept AI-generated outputs, allowing their thinking to be quietly shaped, constrained, and "managed" by the logic of the machine. This is the new equity divide, and our entire educational mission is to ensure you are empowered to be the director. Being managed means defaulting to simple prompts, uncritically accepting the first answer, and slowly losing the ability to generate ideas, synthesize complex information, and build an argument from first principles. It is a state of intellectual dependency that faculties across the nation see as a paramount threat to learning, with 92% citing student overreliance on AI as a top concern (AAC&U, 2025).

This distinction is not merely academic; it is a matter of cultural and intellectual sovereignty. The most popular generative AI tools are not neutral providers of information. They are proprietary, English-language-first systems developed by U.S. corporations increasingly entangled with national defense and security interests. For our university community, particularly in a Latin American context, treating these tools as objective authorities is a profound error. Their datasets structurally underrepresent and misinterpret Spanish, Portuguese, and regional dialects, often flattening cultural nuance into a sterile, North American monoculture. When you are "managed" by these systems, you risk having your worldview subtly colonized by the machine’s biases. To be a "director," you must actively challenge this linguistic and cultural hegemony, using the tools with a critical awareness of their origins and limitations, a principle underscored by UNESCO's call to mitigate algorithmic bias (UNESCO, 2023).

Becoming a director requires what we call "foundation before leverage." You cannot effectively direct a tool to perform a task you do not fundamentally understand yourself. An architect can use software to design a building because she understands physics, materials science, and spatial logic. Without that foundational knowledge, the software is useless, or worse, dangerous. Likewise, you must build your core competencies—in writing, research, critical analysis, or quantitative reasoning—before you can strategically leverage AI to enhance that work. The goal is not to have AI think for you, but to build a rigorous intellectual framework that allows you to think with and through these tools, auditing their outputs, catching their inevitable errors, and crafting specifications with a precision born of genuine expertise (EDUCAUSE, 2024).

This philosophy fundamentally reshapes our approach to academic integrity. A "managed" approach focuses on policing and surveillance, often relying on AI detection software. We reject this model. These detection tools are mathematically unreliable, demonstrably biased against non-native English speakers, and fundamentally flawed in their attempt to find a statistical ghost in the machine (ASCSU Resolution AS-3695-24/AA). Instead of asking, "Did a human write this?" we will ask, "Can the human defend this?" An education in direction is an education in process. We will increasingly focus on assessing your ability to specify, to audit, to document your methods, and to stand accountable for the final product, regardless of the tools you used to create it. This is a more rigorous and more authentic measure of intellectual maturity.

Finally, your role as director becomes a non-negotiable ethical safeguard as AI systems evolve from simple assistants into autonomous agents. Soon, you will be able to dispatch AI agents to perform complex, multi-step tasks with real-world consequences—from executing financial transactions to submitting official documents. In this environment, the human "director" must serve as the essential "circuit breaker." You are the one who must authorize irreversible actions and bear the responsibility for them. Abdicating this role to an algorithm is a failure of professional and ethical duty. Our commitment is to prepare you for this future, fostering the agency, critical judgment, and intellectual independence required to direct technology, rather than be directed by it. This is not just a university policy; it is a necessary stance for sovereign and empowered participation in the 21st century.


References

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

El desafío primordial de nuestro tiempo no es simplemente aprender a usar la IA, sino rehusar a ser instrumentalizados por ella. La nueva brecha digital no es una cuestión de acceso, sino de agencia. De un lado se encuentran aquellos capaces de dirigir críticamente sistemas computacionales complejos para potenciar su propio intelecto singular: los «directores». Del otro, aquellos que aceptan pasivamente los resultados generados por la IA, permitiendo que su pensamiento sea sigilosamente moldeado, constreñido y «gestionado» por la lógica de la máquina. Esta es la nueva brecha de equidad, y la totalidad de nuestra misión educativa es asegurar que ustedes estén facultados para ser los directores. Ser gestionado implica recurrir por defecto a instrucciones simples, aceptar acríticamente la primera respuesta y perder lentamente la capacidad de generar ideas, sintetizar información compleja y construir un argumento desde los principios fundamentales. Es un estado de dependencia intelectual que los cuerpos docentes de todo el país consideran una amenaza primordial para el aprendizaje, donde un 92% cita la dependencia excesiva de los estudiantes en la IA como una de sus principales preocupaciones (AAC&U, 2025).

Esta distinción no es meramente académica; es una cuestión de soberanía cultural e intelectual. Las herramientas de IA generativa más populares no son proveedoras neutrales de información. Son sistemas propietarios, cuyo idioma primario es el inglés, desarrollados por corporaciones estadounidenses cada vez más imbricadas con intereses de defensa y seguridad nacional. Para nuestra comunidad universitaria, particularmente en un contexto latinoamericano, tratar estas herramientas como autoridades objetivas constituye un error profundo. Sus conjuntos de datos subrepresentan y malinterpretan estructuralmente el español, el portugués y los dialectos regionales, a menudo aplanando los matices culturales hasta reducirlos a un estéril monocultivo norteamericano. Cuando uno es «gestionado» por estos sistemas, corre el riesgo de que su cosmovisión sea sutilmente colonizada por los sesgos de la máquina. Para ser un «director», es imperativo desafiar activamente esta hegemonía lingüística y cultural, utilizando las herramientas con una conciencia crítica de sus orígenes y limitaciones, un principio subrayado por el llamado de la UNESCO para mitigar el sesgo algorítmico (UNESCO, 2023).

Convertirse en director requiere lo que denominamos «Fundamentos antes que apalancamiento». No se puede dirigir eficazmente una herramienta para realizar una tarea que uno mismo no comprende en sus fundamentos. Una arquitecta puede usar software para diseñar un edificio porque domina la física, la ciencia de los materiales y la lógica espacial. Sin ese conocimiento fundamental, el software resulta inútil o, peor aún, peligroso. De igual manera, ustedes deben construir sus competencias centrales —en escritura, investigación, análisis crítico o razonamiento cuantitativo— antes de poder apalancar estratégicamente la IA para potenciar dicho trabajo. El objetivo no es que la IA piense por ustedes, sino construir un andamiaje intelectual riguroso que les permita pensar con y a través de estas herramientas, auditando sus resultados, detectando sus errores inevitables y elaborando especificaciones con una precisión que emana de una pericia genuina (EDUCAUSE, 2024).

Esta filosofía reformula fundamentalmente nuestro enfoque sobre la integridad académica. Un enfoque «gestionado» se centra en la vigilancia y el control policial, a menudo dependiendo de software de detección de IA. Rechazamos este modelo. Estas herramientas de detección, como el espejismo de la detección de IA, son matemáticamente poco fiables, demostrablemente sesgadas contra los hablantes no nativos de inglés y fundamentalmente erróneas en su intento de encontrar un fantasma estadístico en la máquina (ASCSU Resolution AS-3695-24/AA). En lugar de preguntar: «¿Lo escribió un humano?», preguntaremos: «¿Puede el humano defenderlo?». Una formación en la dirección es una formación en el proceso. Nos enfocaremos cada vez más en evaluar su capacidad para especificar, auditar, documentar sus métodos y asumir la responsabilidad por el producto final, independientemente de las herramientas que hayan utilizado para crearlo. Esta es una medida más rigurosa y auténtica de la madurez intelectual.

Finalmente, su rol como director se convierte en una salvaguarda ética innegociable a medida que los sistemas de IA evolucionan de simples asistentes a agentes autónomos. Pronto, ustedes podrán enviar agentes de IA para ejecutar tareas complejas de múltiples pasos con consecuencias en el mundo real, desde la ejecución de transacciones financieras hasta la presentación de documentos oficiales. En este entorno, el «director» humano debe servir como el Freno de emergencia humano esencial. Ustedes son quienes deben autorizar acciones irreversibles y asumir la responsabilidad por ellas. Abdicar esta función a un algoritmo es una falta al deber profesional y ético. Nuestro compromiso es prepararlos para este futuro, fomentando la agencia, el juicio crítico y la independencia intelectual necesarios para dirigir la tecnología, en lugar de ser dirigidos por ella. Esto no es solo una política universitaria; es una postura necesaria para una participación soberana y empoderada en el siglo XXI.


Referencias

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Student Principle 5 Principio del Estudiante 5

Protect Your Intellectual Privacy (Cognitive Privacy)

Protege tu Privacidad Intelectual (Privacidad Cognitiva)

The Principle: Generative AI is a behavioral tracking engine. It logs how you react, what you accept, and what you reject. This psychological data is often harvested by corporations to infer your beliefs and vulnerabilities.

El Principio: La IA generativa es un motor de seguimiento de comportamiento. Registra cómo reaccionas, qué aceptas y qué rechazas. Estos datos psicológicos suelen ser recolectados por corporaciones para inferir tus creencias y vulnerabilidades.

In Practice: Do not share sensitive personal information, original unpatented ideas, or confidential university data with commercial AI platforms. Prefer institutionally approved tools that guarantee your data will not be used for model training.

En la Práctica: No compartas información personal sensible, ideas originales no patentadas ni datos confidenciales de la universidad con plataformas comerciales de IA. Prefiere herramientas aprobadas institucionalmente que garanticen que tus datos no se utilizarán para el entrenamiento de modelos.

Read the thorough explanation Leer la explicación detallada

When you interact with a generative AI, you are not simply using a neutral tool; you are entering into a relationship with a complex sociotechnical system. At the heart of this principle is a call to protect your most valuable, non-renewable resource: your own thought process. We call this cognitive privacy—your fundamental right to think, ideate, and even struggle with a concept without being monitored, measured, and databased. Every query you pose, every draft you upload, and every revision you ask for is not just a command. It is a signal that reveals how you learn, where your knowledge gaps are, and what your unique intellectual style is. This process, known as behavioral extraction, turns your academic journey into a stream of valuable data for commercial entities that own these models. Think of it as a two-way mirror in your study space: you see a helpful assistant, but the system sees, records, and analyzes your every cognitive move.

This data extraction is not a benign act of product improvement; it is the core business model of the AI industry and has significant geopolitical dimensions. The major proprietary AI platforms are operated by a handful of U.S.-based technology firms whose technologies are increasingly entangled with national defense and intelligence directives. When you feed your intellectual labor into these systems, you are, in effect, providing free raw material that strengthens a technological infrastructure over which our institution—and our nation—has no control. This creates a dangerous dependency, undermining our ability to build sovereign technological capacity. Higher education guidelines widely caution us to be mindful of data privacy, as the information we share can be “retained, shared, or used in ways that were not intended” (e.g., CSU Chancellor’s Office, 2024). Protecting your intellectual privacy is therefore not just a personal act, but a collective one that helps preserve our institutional autonomy.

This dynamic of extraction is especially harmful for our multilingual communities. The dominant large language models are built with an English-first architecture, treating other languages as problems to be solved through translation. When you use Spanish, Portuguese, or regional dialects, the system isn't just answering your question; it is actively learning from you, harvesting linguistic nuances and cultural idioms to improve its ability to operate in non-Anglophone contexts. This process structurally devalues linguistic diversity, reinforcing a digital-colonialist framework where English remains the default language of power. Your intellectual labor is used to create a more globally "competent" model, yet the underlying logic of that model remains culturally biased, as UNESCO warns in its guidance on the risks of algorithmic bias in education (UNESCO, 2023). Your language is not a data set to be mined.

Simultaneously, we must guard against privacy invasions from within the academy itself. In a misguided attempt to police AI use, some have turned to "AI detection" software. Let us be unequivocal: these tools are pedagogical snake oil. They are mathematically unreliable, demonstrably biased against non-native English speakers, and fundamentally incompatible with academic freedom. As an institution, we reject this technology of surveillance. Faculty senates across the country have formally recognized the unreliability of these tools and the profound risks they pose to students, who can be falsely accused of misconduct by a flawed algorithm (e.g., ASCSU Resolution AS-3695-24/AA). Our focus will be on designing meaningful assessments and fostering AI literacy, not on implementing a system of digital suspicion that violates the very intellectual privacy we urge you to protect from commercial platforms.

Therefore, we empower you to become a conscious steward of your own intellect. Treat interactions with public-facing AI as if you are writing on a public postcard, not in a private journal. Be skeptical of "free" tools and understand the transaction you are truly making. Before you upload a sensitive research proposal, a personal reflection, or a piece of creative writing, pause and ask: who benefits from this data? Is this an irreversible action I am willing to authorize? This mindset is your "circuit breaker," a crucial human-in-the-loop check that is vital in an era of increasingly autonomous systems. The American Association of University Professors (AAUP) rightfully insists on maintaining human agency and faculty governance in the face of technological change (AAUP, 2025). By safeguarding your cognitive privacy, you are not being paranoid; you are exercising intellectual sovereignty, defending your own labor, and participating in the critical project of building a more just and equitable technological future.


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • California State University, Office of the Chancellor. (2024). Guidelines for safe and responsible use of generative AI tools. https://genai.calstate.edu/guidelines-safe-and-responsible-use-generative-ai-tools
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Cuando usted interactúa con una IA generativa, no está simplemente utilizando una herramienta neutral; está entablando una relación con un complejo sistema sociotécnico. En el centro de este principio se encuentra un llamado a proteger su recurso más valioso e irrenunciable: su propio proceso de pensamiento. A esto lo denominamos privacidad cognitiva: su derecho fundamental a pensar, idear e incluso esforzarse con un concepto sin ser monitoreado, medido y registrado en bases de datos. Cada consulta que usted plantea, cada borrador que carga y cada revisión que solicita no es solo una orden. Es una señal que revela cómo aprende, dónde se encuentran sus lagunas de conocimiento y cuál es su estilo intelectual particular. Este proceso, conocido como extracción conductual, convierte su trayectoria académica en un flujo de datos valiosos para las entidades comerciales propietarias de estos modelos. Piense en ello como un espejo de dos vías en su espacio de estudio: usted ve un asistente servicial, pero el sistema observa, registra y analiza cada uno de sus movimientos cognitivos.

Esta extracción de datos no es un acto benigno de mejora de producto; es el modelo de negocio central de la industria de la IA y posee significativas dimensiones geopolíticas. Las principales plataformas de IA privativas son operadas por un puñado de empresas tecnológicas con sede en Estados Unidos, cuyas tecnologías están cada vez más entrelazadas con directivas de defensa nacional e inteligencia. Cuando usted alimenta estos sistemas con su trabajo intelectual, está, en efecto, proveyendo materia prima gratuita que fortalece una infraestructura tecnológica sobre la cual nuestra institución —y nuestra nación— no tienen ningún control. Esto crea una peligrosa dependencia que socava nuestra capacidad para construir una capacidad tecnológica soberana. Las directrices de la educación superior nos advierten ampliamente que seamos conscientes de la privacidad de los datos, ya que la información que compartimos puede ser “retenida, compartida o utilizada de maneras no previstas” (p. ej., CSU Chancellor’s Office, 2024). Proteger su privacidad intelectual no es, por tanto, un acto meramente personal, sino uno colectivo que contribuye a preservar nuestra autonomía institucional.

Esta dinámica de extracción es especialmente perjudicial para nuestras comunidades multilingües. Los modelos de lenguaje extensos dominantes están construidos sobre una arquitectura que privilegia al inglés, tratando a otros idiomas como problemas a ser resueltos mediante la traducción. Cuando usted utiliza el español, el portugués o dialectos regionales, el sistema no solo responde a su pregunta; aprende activamente de usted, cosechando matices lingüísticos y modismos culturales para mejorar su capacidad de operar en contextos no anglófonos. Este proceso devalúa estructuralmente la diversidad lingüística, reforzando un marco colonialista digital donde el inglés permanece como el idioma de poder por defecto. Su trabajo intelectual es utilizado para crear un modelo más “competente” a nivel global; sin embargo, la lógica subyacente de dicho modelo permanece culturalmente sesgada, como advierte la UNESCO en su guía sobre los riesgos del sesgo algorítmico en la educación (UNESCO, 2023). Su lengua no es un conjunto de datos para ser explotado.

Simultáneamente, debemos protegernos de las invasiones a la privacidad desde el interior de la propia academia. En un intento equivocado por vigilar el uso de la IA, algunos han recurrido a software de “detección de IA”. Seamos inequívocos: estas herramientas son el espejismo de la detección de IA. Son matemáticamente poco fiables, demostrablemente sesgados en contra de los hablantes no nativos de inglés y fundamentalmente incompatibles con la libertad académica. Como institución, rechazamos esta tecnología de la vigilancia. Los senados académicos de todo el país han reconocido formalmente la poca fiabilidad de estas herramientas y los profundos riesgos que suponen para los estudiantes, quienes pueden ser acusados falsamente de faltas de conducta por un algoritmo defectuoso (p. ej., ASCSU Resolution AS-3695-24/AA). Nuestro enfoque se centrará en diseñar evaluaciones significativas y en fomentar la alfabetización en IA, no en implementar un sistema de sospecha digital que viola la misma privacidad intelectual que le instamos a proteger de las plataformas comerciales.

Por lo tanto, le empoderamos para que se convierta en un custodio consciente de su propio intelecto. Trate las interacciones con la IA de acceso público como si escribiera en una postal pública, no en un diario privado. Sea escéptico ante las herramientas “gratuitas” y comprenda la transacción que realmente está realizando. Antes de cargar una propuesta de investigación sensible, una reflexión personal o una pieza de escritura creativa, haga una pausa y pregúntese: ¿quién se beneficia de estos datos? ¿Es esta una acción irreversible que estoy dispuesto a autorizar? Esta mentalidad es su freno de emergencia humano, una verificación crucial como humano en el bucle que resulta vital en una era de sistemas cada vez más autónomos. La Asociación Americana de Profesores Universitarios (AAUP) insiste con razón en mantener la agencia humana y la gobernanza del profesorado frente al cambio tecnológico (AAUP, 2025). Al salvaguardar su privacidad cognitiva, usted no está siendo paranoico; está ejerciendo soberanía intelectual, defendiendo su propio trabajo y participando en el proyecto crítico de construir un futuro tecnológico más justo y equitativo.


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • California State University, Office of the Chancellor. (2024). Guidelines for safe and responsible use of generative AI tools. https://genai.calstate.edu/guidelines-safe-and-responsible-use-generative-ai-tools

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Student Principle 6 Principio del Estudiante 6

You Deserve a Human Audience (Mutual Transparency)

Mereces una Audiencia Humana (Transparencia Mutua)

The Principle: When you put rigorous human labor into an assignment, you have the right to know whether a human or a machine is evaluating it. Transparency must flow in both directions.

El Principio: Cuando inviertes un trabajo humano riguroso en una tarea, tienes el derecho de saber si la está evaluando un ser humano o una máquina. La transparencia debe fluir en ambas direcciones.

In Practice: You are required to clearly disclose when and how you use AI to complete an assignment, just as your instructors are expected to disclose if they use AI to grade or provide feedback on your work.

En la Práctica: Se requiere que reveles claramente cuándo y cómo usas la IA para completar una tarea, de la misma manera que se espera que tus instructores revelen si usan IA para calificar o proporcionar retroalimentación sobre tu trabajo.

Read the thorough explanation Leer la explicación detallada

Your education is a dialogue, not a transaction. At its heart, university learning is a deeply human process of inquiry, mentorship, and intellectual partnership between you and your instructors. This principle exists to protect that relationship. When you submit your work—your analysis, your argument, your creation—you are not simply uploading data to be processed. You are entering into a conversation, and you have the fundamental right for the audience on the other side of that conversation to be a thoughtful, engaged human being. The goal of assessment is not merely to assign a grade, but to foster growth, challenge assumptions, and guide your intellectual development. An algorithm, trained on the statistical patterns of past text, cannot truly engage with the novelty of your ideas, appreciate the nuance of your argument, or provide the kind of formative feedback that inspires genuine learning (AAUP, 2025). We are committed to ensuring that the evaluation of your core academic work remains a function of human professional judgment.

This principle of a human audience is a two-way street, establishing a covenant of mutual transparency. Just as we expect you to be honest about your process and the tools you use, we, the faculty and the institution, owe you the same transparency. Therefore, your instructors will not use generative AI to grade your substantive work or provide feedback without your explicit, course-level awareness and a clear pedagogical rationale. Outsourcing the craft of teaching to an opaque algorithm undermines the trust that is essential to the classroom (AAUP, 2025). It also introduces a powerful, unaccountable third party into the learning relationship, one whose internal logic is often proprietary and whose judgments cannot be meaningfully appealed. Upholding this principle ensures that the power dynamics of assessment remain transparent and grounded in the shared goals of education, not in the black box of a commercial model.

Because our commitment is to dialogue over surveillance, we firmly reject the false promise of AI detection software. These tools are not only technologically unreliable, but they are also pedagogically bankrupt. Research and institutional experience have shown that AI detectors are mathematically flawed, prone to false positives, and carry significant biases against multilingual students and those with diverse writing styles (ASCSU Resolution AS-3695-24/AA). Deploying them creates a culture of suspicion, transforming the classroom from a space of intellectual exploration into one of forensic investigation. This approach harms students, erodes trust, and distracts from the real work of education. Instead of investing in a technological arms race, our focus will be on designing meaningful assignments and fostering the skills of critical inquiry that make authentic engagement the most valuable path.

This is not just a technical or pedagogical issue; it is a matter of institutional autonomy and cultural competence. The dominant large language models are developed by a handful of U.S. corporations and are inextricably linked to their commercial and, increasingly, their defense-related priorities. These systems are overwhelmingly trained on English-language data, reflecting a narrow, Anglophone worldview. As such, they often struggle with, flatten, or structurally degrade the nuances of other languages, including Spanish, Portuguese, and regional dialects vital to our communities (UNESCO, 2023). To use such a tool as an arbiter of academic merit would be to enforce a colonial linguistic standard, penalizing diverse forms of expression and failing to recognize culturally specific knowledge. By prioritizing human assessment, we assert our independence from these proprietary systems and affirm our commitment to serving our diverse student body equitably.

Ultimately, this principle is about preparing you for a future that demands your unique human intelligence. The most pressing challenge of the coming decade will not be distinguishing human writing from machine-generated text, but making critical judgments in a world saturated with autonomous AI agents. In this world, your most valuable skill will be your ability to act as a "human in the loop"—a circuit breaker who can question, audit, and override automated systems when they produce flawed, biased, or harmful results. The classroom is the primary training ground for this skill. Learning to build your foundational knowledge before leveraging any tool is what allows you to rigorously audit a machine's output (AAC&U, 2025). The dialogue you have with your human instructors is what hones your critical judgment, ethical reasoning, and capacity for intervention. Preserving the human audience for your work is not about nostalgia; it is a forward-looking strategy to ensure you are empowered to lead in an increasingly automated world.


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Su formación es un diálogo, no una transacción. En su esencia, el aprendizaje universitario es un proceso profundamente humano de indagación, mentoría y colaboración intelectual entre usted y sus docentes. Este principio existe para proteger dicha relación. Cuando usted entrega su trabajo —su análisis, su argumento, su creación— no está simplemente cargando datos para ser procesados. Usted está entablando una conversación, y tiene el derecho fundamental a que la audiencia del otro lado de esa conversación sea un ser humano reflexivo y comprometido. El objetivo de la evaluación no es meramente asignar una calificación, sino fomentar el crecimiento, desafiar supuestos y guiar su desarrollo intelectual. Un algoritmo, entrenado en los patrones estadísticos de textos pasados, no puede involucrarse genuinamente con la novedad de sus ideas, apreciar los matices de su argumentación, ni proporcionar el tipo de retroalimentación formativa que inspira el aprendizaje auténtico (AAUP, 2025). Estamos comprometidos a garantizar que la evaluación de su trabajo académico fundamental siga siendo una función del criterio profesional humano.

Este principio de una audiencia humana es una vía de doble sentido que establece un pacto de transparencia mutua. Así como esperamos que usted sea honesto sobre su proceso y las herramientas que utiliza, nosotros, el cuerpo docente y la institución, le debemos la misma transparencia. Por lo tanto, sus profesores no utilizarán la IA generativa para calificar su trabajo sustantivo o proporcionar retroalimentación sin su conocimiento explícito a nivel del curso y una justificación pedagógica clara. Externalizar el oficio de la enseñanza a un algoritmo opaco socava la confianza que es esencial en el aula (AAUP, 2025). Asimismo, introduce a un tercero poderoso e inimputable en la relación de aprendizaje, cuya lógica interna es a menudo propietaria y cuyos veredictos no pueden ser apelados de forma significativa. Sostener este principio asegura que las dinámicas de poder en la evaluación permanezcan transparentes y cimentadas en los objetivos compartidos de la educación, y no en la caja negra de un modelo comercial.

Dado que nuestro compromiso es con el diálogo por encima de la vigilancia, rechazamos firmemente El espejismo de la detección de IA. Estas herramientas no solo son tecnológicamente poco fiables, sino que además carecen de todo valor pedagógico. La investigación y la experiencia institucional han demostrado que los detectores de IA presentan fallas matemáticas, son propensos a falsos positivos y conllevan sesgos significativos contra estudiantes multilingües y aquellos con estilos de escritura diversos (ASCSU Resolution AS-3695-24/AA). Su implementación crea una cultura de la sospecha, transformando el aula de un espacio de exploración intelectual en uno de investigación forense. Este enfoque perjudica a los estudiantes, erosiona la confianza y distrae de la verdadera labor educativa. En lugar de invertir en una carrera armamentista tecnológica, nuestro enfoque se centrará en diseñar asignaciones significativas y en fomentar las habilidades de indagación crítica que hacen de la participación auténtica el camino más valioso.

Esta no es solo una cuestión técnica o pedagógica; es un asunto de autonomía institucional y competencia cultural. Los modelos de lenguaje extensos dominantes son desarrollados por un puñado de corporaciones estadounidenses y están inextricablemente ligados a sus prioridades comerciales y, de forma creciente, a las relacionadas con la defensa. Estos sistemas están abrumadoramente entrenados con datos en lengua inglesa, reflejando una visión del mundo estrecha y angloparlante. Como tales, a menudo son incapaces de procesar, o bien aplanan o degradan estructuralmente, los matices de otras lenguas, incluyendo el español, el portugués y los dialectos regionales vitales para nuestras comunidades (UNESCO, 2023). Utilizar una herramienta de este tipo como árbitro del mérito académico equivaldría a imponer un estándar lingüístico colonial, penalizando formas diversas de expresión e incapacitando el reconocimiento de saberes culturalmente específicos. Al priorizar la evaluación humana, reivindicamos nuestra independencia de estos sistemas propietarios y afirmamos nuestro compromiso de servir a nuestro diverso cuerpo estudiantil con equidad.

En última instancia, este principio busca prepararlo para un futuro que exige su inteligencia humana singular. El desafío más apremiante de la próxima década no será distinguir la escritura humana del texto generado por máquinas, sino emitir juicios críticos en un mundo saturado de agentes de IA autónomos. En este mundo, su habilidad más valiosa será su capacidad para actuar como un Humano en el bucle, un Freno de emergencia humano que pueda cuestionar, auditar e invalidar sistemas automatizados cuando produzcan resultados erróneos, sesgados o perjudiciales. El aula es el principal campo de entrenamiento para esta habilidad. El principio de Fundamentos antes que apalancamiento —es decir, aprender a construir su base de conocimiento antes de utilizar cualquier herramienta— es lo que le permite auditar rigurosamente el resultado de una máquina (AAC&U, 2025). El diálogo que usted mantiene con sus docentes humanos es lo que perfecciona su juicio crítico, su razonamiento ético y su capacidad de intervención. Preservar la audiencia humana para su trabajo no es una cuestión de nostalgia; es una estrategia con visión de futuro para asegurar que usted esté empoderado para liderar en un mundo cada vez más automatizado.


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Part II: The Faculty Lens — Pedagogical Commitment

Parte II: La Lente Docente — Compromiso Pedagógico

A framework for faculty: focusing on modeling ethical technology use, protecting linguistic diversity, and defending the profession of teaching.

Un marco para los docentes: enfocado en modelar el uso ético de la tecnología, proteger la diversidad lingüística y defender la profesión de la enseñanza.

Faculty Principle 1 Principio Docente 1

Mutual Transparency in Evaluation

Transparencia Mutua en la Evaluación

The Principle: If we demand rigorous, unassisted intellectual labor from our students, we must perform the reciprocal labor of evaluating their work. Using AI to grade while policing students for doing the same creates a hypocritical power dynamic.

El Principio: Si exigimos un trabajo intelectual riguroso y sin asistencia a nuestros estudiantes, debemos realizar la labor recíproca de evaluar su trabajo. Usar la IA para calificar mientras se vigila a los estudiantes para que no hagan lo mismo crea una dinámica de poder hipócrita.

In Practice: Explicitly state in your syllabus if and how you use AI to assist with course management, grading, or feedback, ensuring that transparency is a shared standard in your classroom.

En la Práctica: Indica explícitamente en tu plan de estudios si usas la IA y cómo la usas para ayudar con la gestión del curso, las calificaciones o la retroalimentación, asegurando que la transparencia sea un estándar compartido en tu aula.

Read the thorough explanation Leer la explicación detallada

Our commitment to academic integrity rests on a foundation of mutual trust and respect. When we ask students to be transparent about their use of generative tools in their work, we must hold ourselves to the same standard. This principle addresses the “asymmetry of automation,” a critical power imbalance that arises when an institution uses automated systems to evaluate students without their full knowledge or consent. Using AI to grade essays, provide feedback, or even flag work for plagiarism creates a one-way mirror: the student is observed and judged by a machine, often without a clear understanding of its logic, biases, or limitations. To restore balance, we must operate with mutual transparency. If an instructor uses an AI assistant for any part of the evaluation process—from initial drafts to final grading—this must be clearly disclosed to students in the syllabus and on the assignment itself, along with a clear process for appealing the AI’s conclusions to a human.

This is especially urgent given the proven unreliability of AI detection software. These tools are not scientific instruments; they are probabilistic systems that effectively function as a form of technological surveillance. Numerous studies and institutional resolutions have demonstrated that these detectors are mathematically flawed and carry a significant risk of false positives, disproportionately penalizing non-native English speakers, neurodivergent students, and writers with unique or developing styles (ASCSU Resolution AS-3695-24/AA). Relying on such tools outsources our professional judgment to a faulty algorithm, creating a climate of suspicion rather than a community of inquiry. Therefore, our focus must shift away from a punitive obsession with detection and toward a pedagogical commitment to assignment design. The most effective way to ensure academic integrity is to craft assessments that demand critical synthesis, personal reflection, and process-based evidence—tasks that render simplistic AI generation moot.

Furthermore, the choice of an evaluation tool is never neutral; it is a declaration of our values. The dominant large language models are predominantly trained on English-language data and optimized for U.S. cultural contexts. When used for evaluation, these systems structurally degrade and misunderstand the nuances of Spanish, Portuguese, and regional dialects, often flagging sophisticated phrasing as “awkward” or “incorrect.” This is not a simple technical glitch; it is an act of algorithmic homogenization that devalues linguistic diversity and reinforces a single cultural worldview (UNESCO, 2023). By committing to transparency, we also commit to critically examining the tools we use, prioritizing systems that respect and reflect our community’s multilingual reality and exploring sovereign or open-weight models that offer greater institutional autonomy and cultural alignment.

This principle also insists that faculty, as subject matter experts, must remain the essential “human in the loop.” While AI can be a useful assistant for identifying patterns or providing low-stakes formative feedback, it cannot replace the nuanced, context-aware judgment of an educator. A faculty member understands a student's semester-long journey, their unique intellectual challenges, and the specific learning objectives of a course. An algorithm does not. The American Association of University Professors has warned against the dangers of outsourcing core pedagogical functions to automated systems, as it fundamentally devalues professional expertise and weakens the instructor-student relationship (AAUP, 2025). This is especially critical as autonomous AI “agents” become more common. Any irreversible academic decision, particularly a final grade, must be made and authorized by a human being who can act as a responsible “circuit breaker.”

Ultimately, mutual transparency in evaluation is not about policing technology but about strengthening pedagogy. It reaffirms that education is a profoundly human endeavor built on dialogue, mentorship, and trust. By being open about our own use of AI, we model the critical and ethical engagement we expect from our students. We shift the conversation from “Did you use AI?” to “How did you use AI, and to what end?” This approach acknowledges the reality that over 90% of faculty cite AI overreliance as a primary concern (AAC&U, 2025) and addresses it not with surveillance, but with a renewed focus on what has always been at the heart of our mission: fostering deep, durable, and distinctly human understanding.

References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Nuestro compromiso con la integridad académica descansa sobre un fundamento de confianza y respeto mutuos. Cuando exigimos a los estudiantes que sean transparentes sobre el uso de herramientas generativas en su trabajo, debemos sujetarnos al mismo estándar. Este principio aborda la “asimetría de la automatización”, un desequilibrio de poder crítico que surge cuando una institución utiliza sistemas automatizados para evaluar a los estudiantes sin su pleno conocimiento o consentimiento. El uso de la IA para calificar ensayos, proporcionar retroalimentación o incluso señalar trabajos por plagio crea un espejo unidireccional: el estudiante es observado y juzgado por una máquina, a menudo sin una comprensión clara de su lógica, sus sesgos o sus limitaciones. Para restablecer el equilibrio, debemos operar con transparencia mutua. Si un instructor utiliza un asistente de IA para cualquier parte del proceso de evaluación —desde los borradores iniciales hasta la calificación final—, esto debe ser claramente revelado a los estudiantes en el programa del curso (syllabus) y en la propia consigna del trabajo, junto con un proceso claro para apelar las conclusiones de la IA ante un ser humano.

Esto es especialmente urgente dada la probada falta de fiabilidad del software de detección de IA. Estas herramientas no son instrumentos científicos; son sistemas probabilísticos que funcionan, en efecto, como una forma de vigilancia tecnológica. Numerosos estudios y resoluciones institucionales han demostrado que estos detectores adolecen de fallas matemáticas y conllevan un riesgo significativo de falsos positivos, penalizando desproporcionadamente a los hablantes no nativos de inglés, a los estudiantes neurodivergentes y a los escritores con estilos únicos o en desarrollo (ASCSU Resolution AS-3695-24/AA). Depender de tales herramientas externaliza nuestro juicio profesional a un algoritmo defectuoso, creando un clima de sospecha en lugar de una comunidad de indagación. Por lo tanto, nuestro enfoque debe desplazarse de una obsesión punitiva por la detección hacia un compromiso pedagógico con el diseño de las evaluaciones. La forma más eficaz de garantizar la integridad académica es diseñar evaluaciones que exijan síntesis crítica, reflexión personal y evidencia basada en el proceso, tareas que vuelven irrelevante la generación simplista mediante IA.

Además, la elección de una herramienta de evaluación nunca es neutral; es una declaración de nuestros valores. Los grandes modelos de lenguaje dominantes están entrenados predominantemente con datos en inglés y optimizados para contextos culturales estadounidenses. Cuando se utilizan para la evaluación, estos sistemas degradan estructuralmente y malinterpretan los matices del español, el portugués y los dialectos regionales, marcando a menudo expresiones sofisticadas como “torpes” o “incorrectas”. No se trata de un simple fallo técnico, sino de un acto de homogeneización algorítmica que devalúa la diversidad lingüística y refuerza una única cosmovisión cultural (UNESCO, 2023). Al comprometernos con la transparencia, también nos comprometemos a examinar críticamente las herramientas que utilizamos, priorizando sistemas que respeten y reflejen la realidad multilingüe de nuestra comunidad y explorando modelos soberanos o de pesos abiertos que ofrezcan mayor autonomía institucional y alineación cultural.

Este principio también insiste en que el profesorado, como experto en la materia, debe permanecer como el humano en el bucle esencial. Si bien la IA puede ser un asistente útil para identificar patrones o proporcionar retroalimentación formativa de bajo riesgo, no puede reemplazar el juicio matizado y consciente del contexto de un educador. Un miembro del cuerpo docente comprende la trayectoria semestral de un estudiante, sus desafíos intelectuales únicos y los objetivos de aprendizaje específicos de un curso. Un algoritmo no. La Asociación Americana de Profesores Universitarios ha advertido sobre los peligros de externalizar funciones pedagógicas centrales a sistemas automatizados, ya que esto devalúa fundamentalmente la pericia profesional y debilita la relación entre instructor y estudiante (AAUP, 2025). Esto es especialmente crítico a medida que los “agentes” de IA autónomos se vuelven más comunes. Cualquier decisión académica irreversible, particularmente una calificación final, debe ser tomada y autorizada por un ser humano que pueda actuar como un freno de emergencia humano responsable.

En última instancia, la transparencia mutua en la evaluación no se trata de vigilar la tecnología, sino de fortalecer la pedagogía. Reafirma que la educación es una empresa profundamente humana, construida sobre el diálogo, la mentoría y la confianza. Al ser abiertos sobre nuestro propio uso de la IA, modelamos el compromiso crítico y ético que esperamos de nuestros estudiantes. Desplazamos la conversación de “¿Usaste IA?” a “¿Cómo usaste la IA y con qué fin?”. Este enfoque reconoce la realidad de que más del 90% del profesorado cita la dependencia excesiva de la IA como una preocupación principal (AAC&U, 2025) y la aborda no con vigilancia, sino con un enfoque renovado en aquello que siempre ha estado en el corazón de nuestra misión: fomentar una comprensión profunda, duradera y distintivamente humana.

Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Faculty Principle 2 Principio Docente 2

Protecting the Pedagogical Safe Space

Protegiendo el Espacio Seguro Pedagógico

The Principle: We are the guardians of our students' intellectual privacy. Forcing students to use commercial AI tools can expose their behavioral and cognitive data to commercial harvesting.

El Principio: Somos los guardianes de la privacidad intelectual de nuestros estudiantes. Obligar a los estudiantes a usar herramientas comerciales de IA puede exponer sus datos de comportamiento y cognitivos a la recolección comercial.

In Practice: Only require the use of institutionally vetted AI tools (such as officially contracted platforms) that guarantee student data will not be harvested. Always provide non-automated alternatives for students who object to algorithmic tracking.

En la Práctica: Requiere únicamente el uso de herramientas de IA validadas institucionalmente (como las plataformas contratadas oficialmente) que garanticen que los datos de los estudiantes no serán recolectados. Proporciona siempre alternativas no automatizadas para los estudiantes que objeten el seguimiento algorítmico.

Read the thorough explanation Leer la explicación detallada

The pedagogical safe space—the classroom, the lab, the studio, the seminar—is a sanctuary built on trust. It is where students are encouraged to take intellectual risks, to be vulnerable in their developing knowledge, and to fail productively on their path to mastery. The introduction of third-party AI tools, particularly those wrapped in the logic of surveillance capitalism, threatens to shatter this sanctuary, replacing trust with suspicion and mentorship with monitoring. When we embed technologies that treat students as subjects to be data-mined and policed, we fundamentally alter the nature of the student-faculty relationship. We erect a one-way mirror where a corporation, not a mentor, is on the other side, harvesting every query, draft, and interaction to refine its commercial products. As an institution, we must fiercely protect this space, recognizing that authentic learning cannot flourish under the shadow of surveillance.

This commitment begins with the categorical rejection of so-called "AI detection" software. These tools are pedagogical snake oil, built on flawed statistical assumptions that are demonstrably unreliable and biased. The Academic Senate of the California State University (ASCSU) has already highlighted the profound unreliability of these detectors, which often produce false positives that can derail a student's academic career (ASCSU Resolution AS-3695-24/AA). More critically, these systems are a direct threat to our diverse linguistic communities. Trained predominantly on standardized, Anglophone text, they systematically flag the writing of non-native English speakers and those who use regional dialects as "AI-generated." This is not merely a technical glitch; it is an act of algorithmic discrimination that punishes linguistic diversity. By rejecting these tools, we are not condoning academic dishonesty; we are refusing to implement a broken, biased, and punitive surveillance regime that erodes the trust essential for learning.

Beyond the flawed logic of detection, the use of proprietary, cloud-based AI platforms raises profound issues of data sovereignty and intellectual property. When our students and faculty are required to use tools from large tech corporations, their intellectual labor—their essays, research questions, and creative works—becomes training data for closed, commercial models. This data is often stored on servers outside our national or institutional control, entangled with commercial interests that may directly conflict with our academic mission, including lucrative defense contracts. We risk becoming dependent on a "sovereign infrastructure" that is not our own, outsourcing a core component of our academic enterprise to entities that do not share our values (UNESCO, 2023). This transforms our students from learners into unpaid data laborers and jeopardizes their intellectual property rights, a concern explicitly raised by university governance bodies (ASCSU Resolution AS-3695-24/AA).

The antidote to surveillance is not more sophisticated technology, but a renewed commitment to pedagogy. Instead of asking, "Did a machine write this?" we must design assignments that ask, "Can you, the student, defend, critique, extend, and take ownership of this work?" This shifts the focus from a punitive obsession with originality to a formative assessment of mastery and critical engagement. It requires us to teach students the foundational knowledge necessary to audit a machine's output—to spot its biases, its hallucinations, and its superficialities. An overwhelming 92% of faculty cite student overreliance on AI as a top concern, recognizing that without a strong human foundation, AI becomes a crutch, not a tool (AAC&U, 2025). Our role is therefore not to police the use of AI, but to cultivate the critical AI literacy that empowers students to be discerning, ethical, and intellectually rigorous users who can command the technology, rather than be commanded by it (EDUCAUSE, 2024).

Finally, protecting the pedagogical space means preparing students for a future where this challenge will become even more acute. We are moving from generative AI to agentive AI—autonomous systems designed to execute complex, multi-step tasks without direct human oversight. In this emerging reality, the most crucial skill we can teach is the ability to act as a "human circuit breaker," a thoughtful agent who can intervene, question, and authorize irreversible actions. The classroom must be the laboratory where students learn the ethics of this responsibility, understanding that outsourcing critical judgment to an automated system is an abdication of professional and civic duty (AAUP, 2025). By safeguarding the classroom from surveillance today, we are not merely resisting a technology; we are cultivating the human agency required to navigate the complex technological world of tomorrow with wisdom, integrity, and a profound sense of responsibility.

References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

El espacio pedagógico seguro —el aula, el laboratorio, el taller, el seminario— es un santuario cimentado en la confianza. Es el lugar donde se alienta a los estudiantes a asumir riesgos intelectuales, a mostrarse vulnerables en su conocimiento en desarrollo y a fracasar productivamente en su camino hacia el dominio. La introducción de herramientas de IA de terceros, particularmente aquellas envueltas en la lógica del capitalismo de la vigilancia, amenaza con destruir este santuario, reemplazando la confianza con la sospecha y la mentoría con el monitoreo. Cuando integramos tecnologías que tratan a los estudiantes como sujetos susceptibles de ser minados por sus datos y controlados, alteramos fundamentalmente la naturaleza de la relación entre estudiantes y docentes. Erigimos un espejo unidireccional donde una corporación, y no un mentor, se encuentra del otro lado, cosechando cada consulta, borrador e interacción para refinar sus productos comerciales. Como institución, debemos proteger ferozmente este espacio, reconociendo que el aprendizaje auténtico no puede florecer bajo la sombra de la vigilancia.

Este compromiso comienza con el rechazo categórico del software de la así llamada «detección de IA». Estas herramientas son el espejismo de la detección de IA, construidas sobre supuestos estadísticos erróneos que son demostrablemente poco fiables y sesgados. El Senado Académico de la Universidad Estatal de California (ASCSU) ya ha subrayado la profunda falta de fiabilidad de estos detectores, que a menudo producen falsos positivos capaces de hacer descarrilar la carrera académica de un estudiante (ASCSU Resolution AS-3695-24/AA). De manera aún más crítica, estos sistemas constituyen una amenaza directa para nuestras diversas comunidades lingüísticas. Entrenados predominantemente con texto anglófono estandarizado, marcan sistemáticamente los escritos de hablantes no nativos de inglés y de aquellos que utilizan dialectos regionales como «generados por IA». Esto no es un mero fallo técnico; es un acto de discriminación algorítmica que castiga la diversidad lingüística. Al rechazar estas herramientas, no estamos condonando la deshonestidad académica; nos negamos a implementar un régimen de vigilancia fallido, sesgado y punitivo que erosiona la confianza esencial para el aprendizaje.

Más allá de la lógica deficiente de la detección, el uso de plataformas de IA propietarias y basadas en la nube plantea profundas cuestiones de soberanía de datos y propiedad intelectual. Cuando se exige a nuestros estudiantes y docentes que utilicen herramientas de grandes corporaciones tecnológicas, su labor intelectual —sus ensayos, preguntas de investigación y obras creativas— se convierte en datos de entrenamiento para modelos comerciales cerrados. Estos datos se almacenan a menudo en servidores fuera de nuestro control nacional o institucional, entrelazados con intereses comerciales que pueden entrar en conflicto directo con nuestra misión académica, incluyendo lucrativos contratos de defensa. Corremos el riesgo de volvernos dependientes de una «infraestructura soberana» que no es nuestra, externalizando un componente central de nuestra empresa académica a entidades que no comparten nuestros valores (UNESCO, 2023). Esto transforma a nuestros estudiantes de aprendices en trabajadores de datos no remunerados y pone en peligro sus derechos de propiedad intelectual, una preocupación explícitamente planteada por los órganos de gobierno universitarios (ASCSU Resolution AS-3695-24/AA).

El antídoto contra la vigilancia no es una tecnología más sofisticada, sino un compromiso renovado con la pedagogía. En lugar de preguntar: «¿Escribió esto una máquina?», debemos diseñar asignaciones que pregunten: «¿Puedes tú, como estudiante, defender, criticar, ampliar y apropiarte de este trabajo?». Esto desplaza el enfoque desde una obsesión punitiva por la originalidad hacia una evaluación formativa del dominio y el compromiso crítico. Nos exige enseñar a los estudiantes el conocimiento fundamental necesario para auditar los resultados de una máquina: para detectar sus sesgos, sus alucinaciones y sus superficialidades. Un abrumador 92% del profesorado cita la dependencia excesiva de los estudiantes en la IA como una de sus principales preocupaciones, reconociendo que sin un sólido fundamento humano, la IA se convierte en una muleta, no en una herramienta (AAC&U, 2025). Nuestro papel, por lo tanto, no es vigilar el uso de la IA, sino cultivar la alfabetización crítica en IA que empodere a los estudiantes para ser usuarios perspicaces, éticos e intelectualmente rigurosos, capaces de dominar la tecnología en lugar de ser dominados por ella (EDUCAUSE, 2024).

Finalmente, proteger el espacio pedagógico significa preparar a los estudiantes para un futuro en el que este desafío se agudizará aún más. Estamos transitando de la IA generativa a la IA agéntica: sistemas autónomos diseñados para ejecutar tareas complejas de múltiples pasos sin supervisión humana directa. En esta realidad emergente, la habilidad más crucial que podemos enseñar es la capacidad de actuar como un freno de emergencia humano, un agente reflexivo que puede intervenir, cuestionar y autorizar acciones irreversibles. El aula debe ser el laboratorio donde los estudiantes aprendan la ética de esta responsabilidad, comprendiendo que externalizar el juicio crítico a un sistema automatizado es una abdicación del deber profesional y cívico (AAUP, 2025). Al salvaguardar hoy el aula de la vigilancia, no estamos simplemente resistiendo una tecnología; estamos cultivando la agencia humana necesaria para navegar el complejo mundo tecnológico del mañana con sabiduría, integridad y un profundo sentido de la responsabilidad.

Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Faculty Principle 3 Principio Docente 3

Active Deconstruction of Bias (The Language Gap)

Deconstrucción Activa del Sesgo (La Brecha Lingüística)

The Principle: AI tools center US-centric perspectives and structurally degrade Spanish, Portuguese, and regional dialects. As institutions serving diverse populations, we cannot deploy these English-first tools as neutral or culturally competent authorities.

El Principio: Las herramientas de IA centran perspectivas enfocadas en EE. UU. y degradan estructuralmente el español, el portugués y los dialectos regionales. Como instituciones que sirven a poblaciones diversas, no podemos desplegar estas herramientas que priorizan el inglés como autoridades neutrales o culturalmente competentes.

In Practice: Actively teach students to identify and critique the machine's cultural, geographic, and linguistic biases. Do not accept AI-generated translations or analyses of Latin American realities as the unquestioned standard.

En la Práctica: Enseña activamente a los estudiantes a identificar y criticar los sesgos culturales, geográficos y lingüísticos de la máquina. No aceptes traducciones ni análisis generados por IA sobre las realidades latinoamericanas como un estándar incuestionable.

Read the thorough explanation Leer la explicación detallada

Generative AI systems are not neutral, objective sources of truth; they are distorted digital mirrors reflecting the data upon which they were trained. This data—scraped overwhelmingly from the English-language internet—is saturated with the historical biases, stereotypes, and colonial perspectives of the Global North. These models, therefore, do not simply contain bias; they amplify and operationalize it at an unprecedented scale, laundering prejudice through a veneer of computational objectivity. As institutions serving diverse populations, we have a non-negotiable ethical responsibility to treat these systems not as encyclopedias, but as artifacts for critical deconstruction. The UNESCO Guidance for generative AI in education and research explicitly warns of these risks, urging institutions to prioritize human agency and actively mitigate algorithmic bias, a mandate we take as a foundational pillar of our academic mission.

This responsibility is most acute in our defense of linguistic diversity. The large language models (LLMs) dominating the market are built on an Anglophonic foundation, a design choice that structurally degrades and devalues other languages, including the Spanish and Portuguese spoken by a vast portion of our community. These tools do not just mistranslate; they flatten regional dialects, erase cultural nuance, and impose Anglicized syntactical structures, subtly reinforcing the hegemonic status of English. Relying on such tools without a critical framework is a form of digital colonialism, where our students' linguistic heritage is sanded down to fit the contours of a Silicon Valley dataset. To protect our institutional autonomy and the intellectual sovereignty of our students, we must challenge the supremacy of these proprietary U.S. models and explore sovereign or open-weight alternatives that respect, rather than erase, the world's linguistic richness.

Beyond language, these systems perpetuate harmful stereotypes and engage in a quiet but persistent erasure of knowledge from the Global South. When prompted about historical events, scientific contributions, or cultural figures, the models disproportionately center Western narratives and individuals, rendering contributions from Latin America, Africa, and Asia invisible or marginal. This "epistemic erasure" is not a random glitch; it is the logical outcome of a training corpus that over-represents one worldview. For our students, this can subtly delegitimize their own histories and intellectual traditions. As faculty, our task is to teach students to recognize this erasure, prompting them to ask: Whose knowledge is centered here? Whose voice is missing? This critical practice is essential, as faculty nationwide cite student overreliance on AI as a top concern, fearing they will uncritically absorb these incomplete and biased worldviews (AAC&U, 2025).

The discriminatory logic embedded in generative models is mirrored in the deeply flawed tools designed to detect them. So-called "AI detection" software is algorithmic snake oil, operating on a statistically unsound premise that frequently and disproportionately flags the writing of multilingual learners and non-native English speakers as "AI-generated." This creates a chilling effect, penalizing students for their diverse linguistic backgrounds and placing faculty in the untenable position of using a biased tool to enforce academic integrity. As the Academic Senate of the California State University (ASCSU) has formally noted, these detectors are unreliable and inequitable. Our institutional stance is therefore clear: we will not adopt or condone the use of punitive, surveillance-based detection tools. Instead, we will focus on pedagogical strategies that emphasize process, critical thinking, and the quality of human specification.

Our pedagogical imperative, then, is not to forbid but to demystify. We must empower students with the foundational knowledge required to audit the machine. This means equipping them with AI literacy—the ability to understand the political, social, and technical underpinnings of these systems (EDUCAUSE, 2024). In practice, this looks like assignments that ask students to "red team" an AI, actively probing it for bias. It involves comparing an AI's summary of a historical event with primary source documents from non-Western perspectives. It means teaching students to be the essential "human in the loop," the critical circuit breaker who evaluates, questions, and contextualizes the AI's output rather than passively accepting it. This is not a departure from our educational mission; it is its most modern and urgent expression.

Ultimately, actively deconstructing AI bias is a fundamental component of our commitment to equity and social justice. In a world increasingly shaped by algorithms, teaching our students to see and challenge the biases encoded within them is as essential as teaching them to read and write. It is an act of intellectual self-defense and a necessary skill for informed citizenship in the 21st century. By refusing the myth of AI neutrality and embracing a pedagogy of critical inquiry, we prepare our students not just to use new tools, but to shape a more just and equitable technological future.


References

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Los sistemas de inteligencia artificial generativa no son fuentes neutrales y objetivas de verdad; son espejos digitales distorsionados que reflejan los datos con los que fueron entrenados. Estos datos —extraídos de forma abrumadora de la internet angloparlante— están saturados de los sesgos históricos, estereotipos y perspectivas coloniales del Norte Global. Por lo tanto, estos modelos no se limitan a contener sesgos, sino que los amplifican y los operacionalizan a una escala sin precedentes, legitimando el prejuicio bajo un barniz de objetividad computacional. Como instituciones que sirven a poblaciones diversas, tenemos la responsabilidad ética innegociable de tratar estos sistemas no como enciclopedias, sino como artefactos para la deconstrucción crítica. La Guía de la UNESCO sobre la inteligencia artificial generativa en la educación y la investigación advierte explícitamente sobre estos riesgos, e insta a las instituciones a priorizar la agencia humana y a mitigar activamente el sesgo algorítmico, un mandato que asumimos como pilar fundacional de nuestra misión académica.

Esta responsabilidad se manifiesta de forma más aguda en nuestra defensa de la diversidad lingüística. Los grandes modelos de lenguaje (LLM, por sus siglas en inglés) que dominan el mercado están construidos sobre una base angloparlante, una decisión de diseño que degrada y devalúa estructuralmente otras lenguas, incluyendo el español y el portugués hablados por una vasta porción de nuestra comunidad. Estas herramientas no solo traducen de manera errónea; aplanan los dialectos regionales, borran los matices culturales e imponen estructuras sintácticas anglicanizadas, reforzando sutilmente el estatus hegemónico del inglés. Depender de tales herramientas sin un marco crítico es una forma de colonialismo digital, donde el patrimonio lingüístico de nuestros estudiantes es erosionado para ajustarse a los contornos de un corpus de datos de Silicon Valley. Para proteger nuestra autonomía institucional y la soberanía intelectual de nuestros estudiantes, debemos cuestionar la hegemonía de estos modelos propietarios estadounidenses y explorar alternativas soberanas o de modelos de pesos abiertos que respeten, en lugar de borrar, la riqueza lingüística del mundo.

Más allá del lenguaje, estos sistemas perpetúan estereotipos nocivos y ejecutan un silencioso pero persistente borrado del conocimiento del Sur Global. Cuando se les presenta una instrucción sobre eventos históricos, contribuciones científicas o figuras culturales, los modelos centran desproporcionadamente las narrativas y a los individuos occidentales, volviendo invisibles o marginales las aportaciones de América Latina, África y Asia. Este «borrado epistémico» no es una falla aleatoria; es el resultado lógico de un corpus de entrenamiento que sobrerrepresenta una única cosmovisión. Para nuestros estudiantes, esto puede deslegitimar sutilmente sus propias historias y tradiciones intelectuales. Como cuerpo docente, nuestra tarea es enseñar a los estudiantes a reconocer este borrado, incitándolos a preguntar: ¿El conocimiento de quién se está centrando aquí? ¿La voz de quién falta? Esta práctica crítica es esencial, ya que el profesorado a nivel nacional cita la dependencia excesiva de los estudiantes en la IA como una de sus principales preocupaciones, temiendo que absorban sin sentido crítico estas cosmovisiones incompletas y sesgadas (AAC&U, 2025).

La lógica discriminatoria inherente a los modelos generativos se refleja en las herramientas profundamente defectuosas diseñadas para detectarlos. El llamado software de «detección de IA» es el espejismo de la detección de IA, operando sobre una premisa estadísticamente insostenible que, con frecuencia y de manera desproporcionada, marca los textos de estudiantes multilingües y hablantes no nativos de inglés como «generados por IA». Esto crea un efecto inhibidor, penalizando a los estudiantes por sus diversos orígenes lingüísticos y colocando al cuerpo docente en la posición insostenible de utilizar una herramienta sesgada para velar por la integridad académica. Tal como ha señalado formalmente el Senado Académico de la Universidad Estatal de California (ASCSU), estos detectores son poco fiables e inequitativos. Nuestra postura institucional es, por tanto, clara: no adoptaremos ni condonaremos el uso de herramientas de detección punitivas y basadas en la vigilancia. En su lugar, nos centraremos en estrategias pedagógicas que enfaticen el proceso, el pensamiento crítico y la calidad de la especificación humana.

Nuestro imperativo pedagógico, entonces, no es prohibir sino desmitificar. Debemos empoderar a los estudiantes con el conocimiento fundamental requerido para auditar la máquina. Esto significa dotarlos de una alfabetización en IA —la capacidad de comprender los fundamentos políticos, sociales y técnicos de estos sistemas (EDUCAUSE, 2024)—. En la práctica, esto se traduce en tareas que piden a los estudiantes «atacar» (hacer red-teaming) una IA, sondeándola activamente en busca de sesgos. Implica comparar el resumen de un evento histórico generado por una IA con documentos de fuentes primarias desde perspectivas no occidentales. Significa enseñar a los estudiantes a ser el humano en el bucle esencial, el freno de emergencia humano y crítico que evalúa, cuestiona y contextualiza el resultado de la IA en lugar de aceptarlo pasivamente. Esto no es una desviación de nuestra misión educativa; es su expresión más moderna y urgente.

En última instancia, la deconstrucción activa del sesgo en la IA es un componente fundamental de nuestro compromiso con la equidad y la justicia social. En un mundo cada vez más moldeado por algoritmos, enseñar a nuestros estudiantes a identificar y desafiar los sesgos codificados en ellos es tan esencial como enseñarles a leer y escribir. Es un acto de autodefensa intelectual y una habilidad necesaria para una ciudadanía informada en el siglo XXI. Al rechazar el mito de la neutralidad de la IA y adoptar una pedagogía de la indagación crítica, preparamos a nuestros estudiantes no solo para usar nuevas herramientas, sino para forjar un futuro tecnológico más justo y equitativo.


Referencias

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Faculty Principle 4 Principio Docente 4

Defending the Messiness of Learning (The Detection Trap)

Defendiendo lo Complejo del Aprendizaje (La Trampa de la Detección)

The Principle: AI output regresses to a statistical mean, penalizing linguistic diversity. Furthermore, AI detection tools are mathematically flawed 'snake oil' that disproportionately target non-native English speakers.

El Principio: La salida de la IA retrocede a una media estadística, penalizando la diversidad lingüística. Además, las herramientas de detección de IA son un 'espejismo' matemáticamente defectuoso que ataca desproporcionadamente a los hablantes no nativos.

In Practice: Do not waste institutional energy on unreliable AI surveillance. Instead, pivot toward designing assignments that require 'specification quality' and human metacognition, valuing the idiosyncratic struggle of learning.

En la Práctica: No desperdicies energía institucional en una vigilancia de IA poco confiable. En su lugar, pivota hacia el diseño de tareas que requieran 'calidad de especificación' y metacognición humana, valorando la lucha idiosincrásica del aprendizaje.

Read the thorough explanation Leer la explicación detallada

True learning is not a smooth, linear assembly of facts, but a messy, recursive, and often frustrating process of trial, error, and breakthrough. It involves confronting complex ideas, struggling with unfamiliar concepts, and finding one’s own voice amidst the noise. Generative AI, in its current form, offers a seductive shortcut that bypasses this essential struggle. By producing polished, confident, and statistically probable text on demand, these tools risk “flattening” the very terrain where deep learning occurs. When students are deprived of the generative friction of drafting, revising, and making mistakes, they are also deprived of the opportunity to build foundational knowledge. They learn to prompt a machine for an answer, but not how to formulate the question, evaluate the evidence, or synthesize a novel argument themselves. This concern is not theoretical; a staggering 92% of faculty cite student overreliance on AI as a primary threat to critical thinking, a fear grounded in the understanding that the "messiness" is not a bug in the learning process, but its most crucial feature (AAC&U, 2025).

This defense of messy learning requires us to recognize the pedagogical value of imperfect work. A student’s awkward sentence structure, a slightly flawed thesis statement, or a clumsily integrated source are not merely errors to be corrected; they are diagnostic windows into their thinking process. They are signals that guide a faculty member’s feedback and intervention. An AI-generated text, by contrast, is often a "black box" of plausible but soulless prose, scrubbed clean of the very imperfections that make teaching possible. Relying on AI to smooth out these imperfections is a form of outsourcing the core pedagogical relationship, replacing mentorship with machine-generated mediocrity (AAUP, 2025). Furthermore, this algorithmic flattening disproportionately impacts multilingual students and those from diverse linguistic backgrounds. Large language models trained predominantly on standardized, North American English data can systematically devalue and "correct" regional dialects and valid linguistic variations from Spanish, Portuguese, and other languages, implicitly teaching students that their own cultural and linguistic identities are errors to be fixed by a foreign algorithm.

Our commitment to this principle, therefore, necessitates an unequivocal rejection of so-called AI detection software. These tools are not just unreliable; they are fundamentally flawed and ethically indefensible. They do not "detect" AI. Instead, they run a statistical analysis, comparing student writing against patterns of text complexity and word choice ("perplexity" and "burstiness") common in machine-generated outputs. This is not a forensic analysis; it is a statistical guess, and it is frequently wrong. As the Academic Senate of the California State University has forcefully argued, these tools are a form of "technological snake oil" that create a chilling climate of surveillance while systematically discriminating against the most vulnerable writers (ASCSU, AS-3695-24/AA).

The biases inherent in AI detectors are not a minor flaw; they are a direct threat to our university’s mission of equity and inclusion. Because the software is trained to see a certain kind of "standard" writing as human, it disproportionately flags the work of non-native English speakers, neurodivergent students, and developing writers whose prose does not conform to the algorithm's narrow expectations. To use such a tool is to knowingly deploy a biased system that punishes linguistic diversity and creates a presumption of guilt. It is pedagogical malpractice. A false accusation of academic dishonesty, leveled by an unaccountable algorithm, can cause irreparable harm to a student's academic career and mental well-being. We must protect our students from this flawed, discriminatory technology and uphold their intellectual property and privacy (UNESCO, 2023).

Instead of investing time and resources in a futile and harmful technological arms race, our focus must shift from surveillance to specification. The challenge is not to "catch" students using AI, but to design assignments where the use of AI is either irrelevant to the learning outcomes or is integrated as an object of critical analysis. We must move towards assessing the process of inquiry—the research questions, the annotated bibliographies, the documented revision histories, the critical analysis of a model's output—rather than just the final polished product. This approach promotes AI literacy by teaching students to be critical users and auditors of these systems, not just passive consumers (EDUCAUSE, 2024). It empowers faculty to remain mentors and intellectual guides, not algorithmic police.

Ultimately, defending the messiness of learning is an act of defending human agency in an age of automation. It is a commitment to valuing the uniquely human journey of intellectual development, with all its inherent struggles and triumphs. By rejecting the false certainty of algorithmic flattening and the flawed surveillance of AI detectors, we are preserving the university as a space for genuine critical inquiry, intellectual risk-taking, and the cultivation of an authentic, individual voice. We are choosing a pedagogy of trust and mentorship over a technology of suspicion, ensuring that our core mission—to educate thoughtful, engaged, and empowered human beings—remains intact.


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

El aprendizaje auténtico no es una acumulación tersa y lineal de datos, sino un proceso desordenado, recursivo y a menudo frustrante de ensayo, error y revelación. Implica confrontar ideas complejas, lidiar con conceptos ajenos y encontrar una voz propia en medio del ruido. La IA generativa, en su forma actual, ofrece un atajo seductor que elude esta lucha esencial. Al producir textos pulcros, elocuentes y estadísticamente probables bajo demanda, estas herramientas corren el riesgo de “aplanar” el terreno mismo donde ocurre el aprendizaje profundo. Cuando se priva a los estudiantes de la fricción generativa que implica redactar, revisar y cometer errores, se les priva también de la oportunidad de construir conocimiento fundamental. Aprenden a dar una instrucción a una máquina para obtener una respuesta, pero no a formular la pregunta, evaluar la evidencia o sintetizar un argumento novedoso por sí mismos. Esta preocupación no es teórica; un abrumador 92% del profesorado cita la dependencia excesiva de los estudiantes en la IA como una amenaza primordial para el pensamiento crítico, un temor que se fundamenta en la comprensión de que este “desorden” no es un error en el proceso de aprendizaje, sino su rasgo más crucial (AAC&U, 2025).

Esta defensa del aprendizaje desordenado nos exige reconocer el valor pedagógico del trabajo imperfecto. La sintaxis torpe de un estudiante, una tesis ligeramente defectuosa o una fuente integrada con poca destreza no son meros errores que deban corregirse; son ventanas de diagnóstico hacia su proceso de pensamiento. Son señales que guían la retroalimentación y la intervención del docente. Un texto generado por IA, en cambio, es a menudo una “caja negra” de prosa verosímil pero desalmada, despojada de las mismas imperfecciones que hacen posible la enseñanza. Depender de la IA para pulir estas imperfecciones es una forma de externalizar la relación pedagógica fundamental, reemplazando la mentoría con una mediocridad generada por máquinas (AAUP, 2025). Además, este aplanamiento algorítmico impacta de manera desproporcionada a los estudiantes multilingües y a aquellos provenientes de diversos contextos lingüísticos. Los modelos de lenguaje extensos, entrenados predominantemente con datos estandarizados del inglés norteamericano, pueden devaluar y “corregir” sistemáticamente los dialectos regionales y las variaciones lingüísticas válidas del español, el portugués y otras lenguas, enseñando implícitamente a los estudiantes que sus propias identidades culturales y lingüísticas son errores que deben ser subsanados por un algoritmo extranjero.

Nuestro compromiso con este principio, por lo tanto, exige un rechazo inequívoco del así llamado software de detección de IA. Estas herramientas no solo son poco fiables; son fundamentalmente defectuosas y éticamente indefendibles. No “detectan” la IA. En su lugar, realizan un análisis estadístico que compara la escritura del estudiante con patrones de complejidad textual y elección de palabras (“perplejidad” y “rafagosidad”) comunes en los resultados generados por máquinas. No se trata de un análisis forense, sino de una conjetura estadística, y con frecuencia es errónea. Como ha argumentado enérgicamente el Senado Académico de la Universidad Estatal de California, estas herramientas son una forma de el espejismo de la detección de IA que crea un clima intimidante de vigilancia, al tiempo que discrimina sistemáticamente a los escritores más vulnerables (ASCSU, AS-3695-24/AA).

Los sesgos inherentes a los detectores de IA no son un defecto menor; constituyen una amenaza directa a la misión de equidad e inclusión de nuestra universidad. Dado que el software está entrenado para reconocer como humana una cierta clase de escritura “estándar”, marca de forma desproporcionada el trabajo de hablantes no nativos de inglés, estudiantes neurodivergentes y escritores en desarrollo cuya prosa no se ajusta a las estrechas expectativas del algoritmo. Utilizar una herramienta de este tipo es desplegar a sabiendas un sistema sesgado que castiga la diversidad lingüística y crea una presunción de culpabilidad. Constituye una mala praxis pedagógica. Una falsa acusación de deshonestidad académica, formulada por un algoritmo que no rinde cuentas, puede causar un daño irreparable a la trayectoria académica y al bienestar mental de un estudiante. Debemos proteger a nuestros estudiantes de esta tecnología defectuosa y discriminatoria, y defender su propiedad intelectual y su privacidad (UNESCO, 2023).

En lugar de invertir tiempo y recursos en una inútil y perjudicial carrera armamentista tecnológica, nuestro enfoque debe transitar de la vigilancia a la especificación. El reto no es “atrapar” a los estudiantes que usan IA, sino diseñar consignas académicas en las que el uso de la IA sea irrelevante para los resultados de aprendizaje o se integre como objeto de análisis crítico. Debemos avanzar hacia la evaluación del proceso de indagación —las preguntas de investigación, las bibliografías comentadas, los historiales de revisión documentados, el análisis crítico de los resultados de un modelo— en lugar de evaluar únicamente el producto final pulido. Este enfoque promueve la alfabetización en IA, enseñando a los estudiantes a ser usuarios y auditores críticos de estos sistemas, no solo consumidores pasivos (EDUCAUSE, 2024). Empodera al cuerpo docente para que continúe siendo mentor y guía intelectual, no una policía algorítmica.

En última instancia, defender el carácter desordenado del aprendizaje es un acto de defensa de la agencia humana en la era de la automatización. Es un compromiso con la valoración del viaje singularmente humano del desarrollo intelectual, con todas sus luchas y triunfos inherentes. Al rechazar la falsa certeza del aplanamiento algorítmico y la vigilancia defectuosa de los detectores de IA, estamos preservando la universidad como un espacio para la indagación crítica genuina, la asunción de riesgos intelectuales y el cultivo de una voz auténtica e individual. Estamos eligiendo una pedagogía de la confianza y la mentoría por encima de una tecnología de la sospecha, asegurando que nuestra misión fundamental —formar seres humanos reflexivos, comprometidos y empoderados— permanezca intacta.


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • EDUCAUSE. (2024). AI literacy in teaching and learning. https://www.educause.edu/content/2024/ai-literacy-in-teaching-and-learning/introduction

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

Faculty Principle 5 Principio Docente 5

The Ethics of Tool Selection

La Ética en la Selección de Herramientas

The Principle: Generative AI carries a massive carbon footprint and its safety filters rely on undercompensated labor in the Global South. As educators, we must model sustainable and ethical technology use.

El Principio: La IA generativa conlleva una huella de carbono masiva y sus filtros de seguridad dependen del trabajo mal remunerado en el Sur Global. Como educadores, debemos modelar un uso de la tecnología sostenible y ético.

In Practice: Always weigh the ecological and human cost of an AI assignment against its pedagogical value. Do not mandate high-compute AI use for trivial tasks.

En la Práctica: Pesa siempre el costo ecológico y humano de una tarea con IA frente a su valor pedagógico. No obligues a usar IA de alto consumo computacional para tareas triviales.

Read the thorough explanation Leer la explicación detallada

When we select a generative AI tool for our classrooms or research, we are not merely choosing a piece of software; we are making a profound ethical and infrastructural commitment. Behind the clean, responsive interface of any large-scale model lies a vast and often invisible planetary-scale apparatus of computation, energy, water, and human labor. As educators at an institution committed to social and environmental justice, it is our responsibility to look past the alluring veneer of "intelligent" outputs and critically assess the material reality of these systems. This means asking difficult questions: What is the true environmental cost of this query? Who performed the grueling, low-paid labor required to make this model appear safe and coherent? And does our reliance on this tool align with or betray our core institutional values?

The environmental footprint of large-scale AI is staggering and directly implicates our university's sustainability goals. Training a single major AI model can consume as much electricity as thousands of homes for a year, and the physical data centers that run these models require millions of gallons of fresh water for cooling—often in regions already facing water scarcity. This immense consumption is not a one-time cost; every single query, every sentence generated, and every image created adds to this ongoing environmental burden. As the Academic Senate of the California State University has formally recognized, these "significant environmental costs" must be a primary consideration in our technological adoption strategies (ASCSU Resolution AS-3754-25/AA). Choosing to use and promote these tools without acknowledging their ecological impact is to ignore a fundamental tenet of responsible global citizenship.

Equally troubling is the hidden human cost embedded within these systems. The process of "cleaning" massive datasets and fine-tuning models through Reinforcement Learning from Human Feedback (RLHF) relies on a global workforce of "ghost workers," predominantly located in the Global South. These individuals are paid pennies per task to view and label graphic, violent, and toxic content to teach the AI what to avoid, or to perform monotonous labor that makes automated systems appear seamless. This work is often psychologically damaging, precarious, and exploitative, creating a new form of digital colonialism where the convenience of the developed world is built on the underpaid and invisible labor of others. As a university, we must ask if we are comfortable integrating tools into our pedagogy that are predicated on such exploitative labor practices, a reality that runs counter to the principles of human dignity and fairness espoused in global ethical frameworks like the UNESCO Guidance for generative AI in education and research.

Furthermore, the choice to rely on a handful of proprietary, U.S.-based models creates a dangerous dependency that threatens our institutional autonomy. These platforms are not neutral public utilities; they are controlled by commercial entities increasingly entangled with national defense and intelligence directives. By outsourcing our core academic functions to these "black box" systems, we risk ceding control over our own digital infrastructure, becoming vulnerable to abrupt changes in terms of service, escalating costs, and the subtle ideological biases baked into their architecture. This move away from sovereign or community-controlled infrastructure towards a reliance on dual-use commercial tools represents a significant strategic risk, undermining the very academic freedom and critical independence we are meant to champion.

The ethical path forward, therefore, requires a conscious and deliberate shift in our approach to tool selection. Instead of defaulting to the largest and most heavily marketed models, we must actively explore and prioritize alternatives that offer greater transparency and align with our values. This includes championing open-weight models that can be audited and studied, supporting the development of smaller, more energy-efficient specialized models, and investing in sovereign infrastructure that gives us control over our own data and computational resources. This is not simply a technical choice but a pedagogical one. Following our institutional guidelines for responsible use (CSU Chancellor's Office), we can teach our students to engage with AI not as passive consumers of a magical technology, but as critical scholars who understand the full sociotechnical stack—from the data center's water pump to the content moderator's keyboard.

Ultimately, the tools we select are not neutral artifacts; they are potent expressions of our institutional values. Every time we direct students to use a specific platform, we are implicitly endorsing its supply chain, its labor practices, and its environmental impact. By making the ethics of tool selection a central, non-negotiable part of our AI strategy, we reaffirm our commitment to creating a more just and sustainable world. We empower our faculty and students to make informed decisions, fostering a campus culture where technological innovation is pursued not for its own sake, but in service of our public mission and our shared humanity.


References

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • California State University, Office of the Chancellor. (2024). Guidelines for safe and responsible use of generative AI tools. https://genai.calstate.edu/guidelines-safe-and-responsible-use-generative-ai-tools
  • Academic Senate of the California State University. (2025). Urging caution in the use of generative AI (Resolution AS-3754-25/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2024-2025/3754.pdf

Al seleccionar una herramienta de inteligencia artificial generativa para nuestras aulas o investigaciones, no estamos meramente eligiendo un software; estamos asumiendo un profundo compromiso ético e infraestructural. Detrás de la interfaz pulcra y responsiva de cualquier modelo a gran escala yace un vasto y a menudo invisible aparato a escala planetaria de computación, energía, agua y trabajo humano. Como educadores en una institución comprometida con la justicia social y ambiental, es nuestra responsabilidad mirar más allá del atractivo barniz de los resultados "inteligentes" y evaluar críticamente la realidad material de estos sistemas. Esto significa plantear preguntas difíciles: ¿Cuál es el verdadero costo ambiental de esta consulta? ¿Quién realizó la ardua labor y mal remunerada que se requiere para que este modelo parezca seguro y coherente? Y, ¿nuestra dependencia de esta herramienta se alinea con nuestros valores institucionales fundamentales o los traiciona?

La huella ambiental de la IA a gran escala es abrumadora e implica directamente las metas de sustentabilidad de nuestra universidad. Entrenar un solo modelo de IA de gran envergadura puede consumir tanta electricidad como miles de hogares durante un año, y los centros de datos físicos que operan estos modelos requieren millones de litros de agua dulce para su enfriamiento, a menudo en regiones que ya enfrentan escasez hídrica. Este inmenso consumo no es un costo único; cada consulta, cada oración generada y cada imagen creada se suma a esta carga ambiental continua. Como ha reconocido formalmente el Senado Académico de la Universidad Estatal de California, estos "costos ambientales significativos" deben ser una consideración primordial en nuestras estrategias de adopción tecnológica (Resolución ASCSU AS-3754-25/AA). Optar por usar y promover estas herramientas sin reconocer su impacto ecológico es ignorar un principio fundamental de la ciudadanía global responsable.

Igualmente preocupante es el costo humano oculto inherente a estos sistemas. El proceso de "limpieza" de conjuntos de datos masivos y el ajuste fino de los modelos a través del Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF, por sus siglas en inglés) depende de una fuerza laboral global de "trabajadores fantasma", localizados predominantemente en el Sur Global. A estos individuos se les paga unos cuantos centavos por tarea para visualizar y etiquetar contenido gráfico, violento y tóxico con el fin de enseñar a la IA qué debe evitar, o para realizar labores monótonas que hacen que los sistemas automatizados parezcan impecables. Este trabajo es a menudo psicológicamente dañino, precario y explotador, creando una nueva forma de colonialismo digital donde la conveniencia del mundo desarrollado se construye sobre el trabajo mal pagado e invisible de otros. Como universidad, debemos preguntarnos si nos sentimos cómodos integrando en nuestra pedagogía herramientas que se basan en tales prácticas laborales de explotación, una realidad que contraviene los principios de dignidad humana y justicia promovidos en marcos éticos globales como la Guía sobre la IA generativa en la educación y la investigación de la UNESCO.

Además, la decisión de depender de un puñado de modelos propietarios con sede en Estados Unidos crea una peligrosa dependencia que amenaza nuestra autonomía institucional. Estas plataformas no son servicios públicos neutrales; son controladas por entidades comerciales cada vez más entrelazadas con directrices de defensa nacional e inteligencia. Al externalizar nuestras funciones académicas centrales a estos sistemas de "caja negra", corremos el riesgo de ceder el control sobre nuestra propia infraestructura digital, volviéndonos vulnerables a cambios abruptos en los términos de servicio, a costos crecientes y a los sutiles sesgos ideológicos integrados en su arquitectura. Este alejamiento de una infraestructura soberana o controlada por la comunidad hacia una dependencia de herramientas comerciales de infraestructura de uso dual representa un riesgo estratégico significativo, socavando la misma libertad académica e independencia crítica que debemos defender.

El camino ético a seguir, por lo tanto, requiere un giro consciente y deliberado en nuestro enfoque para la selección de herramientas. En lugar de recurrir por defecto a los modelos más grandes y publicitados, debemos explorar activamente y priorizar alternativas que ofrezcan mayor transparencia y se alineen con nuestros valores. Esto incluye promover los modelos de pesos abiertos que pueden ser auditados y estudiados, apoyar el desarrollo de modelos especializados más pequeños y de mayor eficiencia energética, e invertir en infraestructura soberana que nos otorgue control sobre nuestros propios datos y recursos computacionales. Esta no es simplemente una elección técnica, sino pedagógica. Siguiendo las directrices institucionales para un uso responsable (Oficina del Rector de la CSU), podemos enseñar a nuestros estudiantes a interactuar con la IA no como consumidores pasivos de una tecnología mágica, sino como académicos críticos que comprenden la totalidad del andamiaje sociotécnico, desde la bomba de agua del centro de datos hasta el teclado del moderador de contenido.

En última instancia, las herramientas que seleccionamos no son artefactos neutrales; son potentes expresiones de nuestros valores institucionales. Cada vez que instruimos a los estudiantes a utilizar una plataforma específica, estamos respaldando implícitamente su cadena de suministro, sus prácticas laborales y su impacto ambiental. Al hacer de la ética en la selección de herramientas una parte central e innegociable de nuestra estrategia de IA, reafirmamos nuestro compromiso con la creación de un mundo más justo y sostenible. Empoderamos a nuestro cuerpo docente y a nuestros estudiantes para que tomen decisiones informadas, fomentando una cultura en el campus donde la innovación tecnológica no se persigue por sí misma, sino al servicio de nuestra misión pública y de nuestra humanidad compartida.


Referencias

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • California State University, Office of the Chancellor. (2024). Guidelines for safe and responsible use of generative AI tools. https://genai.calstate.edu/guidelines-safe-and-responsible-use-generative-ai-tools

  • Academic Senate of the California State University. (2025). Urging caution in the use of generative AI (Resolution AS-3754-25/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2024-2025/3754.pdf

Faculty Principle 6 Principio Docente 6

The Defense of Academic Labor (Sovereign Infrastructure)

La Defensa del Trabajo Académico (Infraestructura Soberana)

The Principle: Reliance on dual-use U.S. proprietary APIs creates a structural dependency on geopolitically entangled commercial vendors. We must resist outsourcing the university's 'brain' and advocate for sovereign, localized models.

El Principio: La dependencia de API propietarias estadounidenses de uso dual crea una dependencia estructural de proveedores comerciales geopolíticamente enredados. Debemos resistir la externalización del 'cerebro' de la universidad y abogar por modelos soberanos y localizados.

In Practice: Maintain your role as the human mentor and evaluator. Advocate for and utilize secure, open-weight, or institutionally controlled AI infrastructures that protect the university's autonomy and academic freedom.

En la Práctica: Mantén tu rol como mentor humano y evaluador. Aboga por y utiliza infraestructuras de IA seguras, de pesos abiertos o controladas institucionalmente que protejan la autonomía de la universidad y la libertad académica.

Read the thorough explanation Leer la explicación detallada

The integration of artificial intelligence into the university is not a neutral technological upgrade; it is a profound political, economic, and ethical choice about the future of academic work and institutional identity. Uncritical adoption of proprietary, black-box AI tools represents a dangerous outsourcing of core academic functions—pedagogy, assessment, research, and administration—to private corporations whose motives are commercial, not educational. This trend threatens to de-skill and disenfranchise faculty, transforming educators from autonomous professionals into mere operators of proprietary software. The American Association of University Professors (AAUP) has sounded the alarm, warning that such outsourcing erodes shared governance and replaces pedagogical judgment with algorithmic directives. Defending academic labor, therefore, means defending the university's public mission against a creeping commercialization that prioritizes efficiency and data extraction over the messy, human, and essential work of critical inquiry and mentorship.

At the heart of this defense is the principle of institutional autonomy, which is directly threatened by our growing reliance on a handful of U.S.-based technology firms. The dominant large language models from companies like OpenAI, Google, and Anthropic are not simply benign utilities; they are dual-use technologies increasingly entangled with national defense directives and geopolitical strategies. Forging a digital umbilical cord to these platforms makes our institution vulnerable to their terms of service, their ideological biases, their pricing models, and their political allegiances. True academic freedom requires a degree of technological sovereignty. This means prioritizing the exploration and development of open-weight, transparent, or locally-hosted models that allow for scrutiny, customization, and control. By refusing to become a dependent end-user of proprietary systems, we assert our right to shape our own intellectual and technological future, a choice that is fundamental to resisting the corporate enclosure of knowledge.

Furthermore, the defense of academic labor is a defense of pedagogical integrity. We cannot allow the seductive promise of AI-driven efficiency to undermine the foundational principle of learning: that genuine competence is built through struggle, practice, and the development of deep, structured knowledge. A staggering 92% of faculty cite student overreliance on AI as a top concern, recognizing that using these tools without a firm intellectual foundation prevents students from auditing the machine's output or developing the critical thinking skills necessary for innovation (AAC&U, 2025). This danger is compounded by a form of digital colonialism embedded in the models themselves. Trained predominantly on English-language data, these systems structurally flatten and degrade the nuances of Spanish, Portuguese, and regional dialects, often perpetuating Anglophone biases and erasing local contexts. As UNESCO warns, such algorithmic bias risks homogenizing global knowledge. Treating these tools as culturally competent authorities is an abdication of our responsibility to foster true intellectual and linguistic diversity.

This responsibility also extends to rejecting the surveillance-industrial complex that has emerged around AI. We must resist the false promise of AI detection software, a technology the Academic Senate of the California State University (ASCSU) has identified as mathematically unreliable, inaccurate, and deeply biased against non-native English speakers (ASCSU Resolution AS-3695-24/AA). These tools are pedagogical snake oil, sold by corporations that profit from creating an atmosphere of suspicion in the classroom. Instead of investing in a flawed technological arms race that positions faculty as police and students as suspects, we must reinvest in the human-centered work of good pedagogy: designing authentic assessments, fostering intellectual curiosity, and building relationships of trust. The focus must shift from surveillance of the product to the quality and rigor of the process, evaluating the student’s ability to specify problems, critique sources, and synthesize ideas—skills that AI can assist but never replace.

Ultimately, as AI systems evolve from simple tools into autonomous agents capable of executing complex, multi-step tasks, the role of human oversight becomes non-negotiable. The defense of academic labor in an age of "agentic wildfire" is the defense of the human as an ethical circuit breaker. Faculty must remain firmly in the loop, positioned to authorize or halt irreversible actions, whether it’s submitting a grant proposal, finalizing a student's grade, or launching a research project. This is not Luddism; it is a profound commitment to accountability. An algorithm cannot be held responsible for its consequences, but a human can and must be. By safeguarding the indispensable role of faculty judgment, ethical deliberation, and professional responsibility, we ensure that the university remains a fundamentally human institution, dedicated to the cultivation of wisdom, not just the optimization of information.


References

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic
  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge
  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693
  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

La integración de la inteligencia artificial en la universidad no es una mera actualización tecnológica neutral; es una profunda elección política, económica y ética sobre el futuro del trabajo académico y la identidad institucional. La adopción acrítica de herramientas de IA de caja negra y de carácter propietario representa una peligrosa externalización de las funciones académicas centrales —pedagogía, evaluación, investigación y administración— a corporaciones privadas cuyos motivos son comerciales, no educativos. Esta tendencia amenaza con desprofesionalizar y marginar al cuerpo docente, transformando a los educadores de profesionales autónomos en meros operadores de software propietario. La Asociación Estadounidense de Profesores Universitarios (AAUP) ha hecho sonar la voz de alerta, advirtiendo que dicha externalización erosiona la gobernanza compartida y reemplaza el juicio pedagógico con directivas algorítmicas. Defender el trabajo académico, por lo tanto, significa defender la misión pública de la universidad frente a una comercialización progresiva que prioriza la eficiencia y la extracción de datos sobre la labor —desordenada, humana y esencial— de la indagación crítica y la mentoría.

En el centro de esta defensa se encuentra el principio de autonomía institucional, que se ve directamente amenazado por nuestra creciente dependencia de un puñado de empresas tecnológicas con sede en Estados Unidos. Los modelos de lenguaje extensos dominantes de compañías como OpenAI, Google y Anthropic no son simplemente herramientas benignas; son tecnologías de uso dual cada vez más entrelazadas con directivas de defensa nacional y estrategias geopolíticas. Forjar un cordón umbilical digital con estas plataformas vuelve a nuestra institución vulnerable a sus términos de servicio, sus sesgos ideológicos, sus modelos de precios y sus lealtades políticas. La verdadera libertad académica requiere un grado de soberanía tecnológica. Esto significa priorizar la exploración y el desarrollo de modelos de pesos abiertos, transparentes o alojados localmente que permitan el escrutinio, la personalización y el control. Al negarnos a convertirnos en un usuario final dependiente de sistemas propietarios, afirmamos nuestro derecho a forjar nuestro propio futuro intelectual y tecnológico, una elección fundamental para resistir la apropiación corporativa del conocimiento.

Asimismo, la defensa del trabajo académico es una defensa de la integridad pedagógica. No podemos permitir que la seductora promesa de la eficiencia impulsada por la IA socave el principio fundacional del aprendizaje: que la competencia genuina se construye a través del esfuerzo, la práctica y el desarrollo de un conocimiento profundo y estructurado. Un abrumador 92% del profesorado cita la dependencia excesiva de los estudiantes en la IA como una de sus principales preocupaciones, reconociendo que el uso de estas herramientas sin una base intelectual firme impide que los estudiantes auditen los resultados de la máquina o desarrollen las habilidades de pensamiento crítico necesarias para la innovación (AAC&U, 2025). Este peligro se ve agravado por una forma de colonialismo digital incrustada en los propios modelos. Entrenados predominantemente con datos en inglés, estos sistemas aplanan y degradan estructuralmente los matices del español, el portugués y los dialectos regionales, perpetuando a menudo sesgos anglófonos y borrando contextos locales. Como advierte la UNESCO, tal sesgo algorítmico corre el riesgo de homogeneizar el conocimiento global. Tratar estas herramientas como autoridades culturalmente competentes es una abdicación de nuestra responsabilidad de fomentar una verdadera diversidad intelectual y lingüística.

Esta responsabilidad se extiende también al rechazo del complejo industrial de la vigilancia que ha surgido en torno a la IA. Debemos resistir la falsa promesa del software de detección de IA, una tecnología que el Senado Académico de la Universidad Estatal de California (ASCSU) ha identificado como matemáticamente poco fiable, imprecisa y profundamente sesgada contra los hablantes no nativos de inglés (Resolución ASCSU AS-3695-24/AA). Estas herramientas son el espejismo de la detección de IA, comercializadas por corporaciones que se benefician de crear una atmósfera de sospecha en el aula. En lugar de invertir en una fallida carrera armamentista tecnológica que posiciona a los docentes como policías y a los estudiantes como sospechosos, debemos reinvertir en el trabajo centrado en lo humano de la buena pedagogía: diseñar evaluaciones auténticas, fomentar la curiosidad intelectual y construir relaciones de confianza. El enfoque debe pasar de la vigilancia del producto a la calidad y el rigor del proceso, evaluando la capacidad del estudiante para especificar problemas, criticar fuentes y sintetizar ideas—habilidades que la IA puede asistir, pero nunca reemplazar.

En última instancia, a medida que los sistemas de IA evolucionan de simples herramientas a agentes autónomos capaces de ejecutar tareas complejas de múltiples pasos, el papel de la supervisión humana se vuelve innegociable. La defensa del trabajo académico en una era de proliferación agéntica descontrolada es la defensa del ser humano como un freno de emergencia humano con una función ética. El profesorado debe permanecer firmemente humano en el bucle, posicionado para autorizar o detener acciones irreversibles, ya sea la presentación de una propuesta de subvención, la finalización de la calificación de un estudiante o el lanzamiento de un proyecto de investigación. Esto no es ludismo; es un profundo compromiso con la responsabilidad. Un algoritmo no puede ser responsabilizado por sus consecuencias, pero un ser humano puede y debe serlo. Al salvaguardar el papel indispensable del juicio docente, la deliberación ética y la responsabilidad profesional, garantizamos que la universidad siga siendo una institución fundamentalmente humana, dedicada al cultivo de la sabiduría, no solo a la optimización de la información.


Referencias

  • American Association of University Professors. (2025). Artificial intelligence and academic professions. https://www.aaup.org/reports-publications/aaup-policies-reports/topical-reports/artificial-intelligence-and-academic

  • Association of American Colleges and Universities. (2025). The AI challenge: Faculty concerns about generative AI in higher education. https://www.aacu.org/research/the-ai-challenge

  • UNESCO. (2023). Guidance for generative AI in education and research. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000386693

  • Academic Senate of the California State University. (2024). Student intellectual property and the unreliability of AI detection tools (Resolution AS-3695-24/AA). https://www.calstate.edu/csu-system/faculty-staff/academic-senate/resolutions/2023-2024/3695.pdf

About the Author & Related Work

Autoría y Producción Académica

My research has focused for decades on computer-mediated communication, interactive media, and the intersection of technology and pedagogy. For a comprehensive list of my publications and academic outputs, please visit my Research Profile.

Durante décadas, mi investigación se ha centrado en la comunicación mediada por computadora, los medios interactivos y la intersección entre tecnología y pedagogía. Para consultar una lista exhaustiva de mis publicaciones y producción académica, sírvase visitar mi Perfil de Investigación.