Download on the App Store

¿Debería el gobierno promover la educación en línea como alternativa a la presencial?

Introducción

Imagina por un momento que el gobierno anuncia un plan nacional: todas las escuelas secundarias pasarán a clases 100 % en línea. Prometen mayor eficiencia, acceso universal y modernización. Suena bien, ¿no? Pero entonces recuerdas a tu primo que vive en una comunidad rural sin internet estable. O piensas en tu compañera con discapacidad auditiva, cuya plataforma de videoconferencias no tiene subtítulos automáticos. De pronto, esa “solución moderna” no parece tan neutral ni tan justa.

Aquí nace una pregunta fundamental que va mucho más allá de los cables, pantallas o conexiones: ¿es realmente neutral la tecnología educativa? O, dicho de otro modo, ¿es simplemente una herramienta que podemos usar bien o mal, o ya trae incorporado un conjunto de valores, prioridades y exclusiones desde el momento de su diseño?

Esta discusión no es solo técnica. Es ética, política y profundamente humana. Si asumimos que la tecnología es neutral, entonces promover la educación en línea parece una decisión racional: más barata, más escalable, más flexible. Pero si reconocemos que toda tecnología está cargada de valores —decisiones sobre quién entra, quién habla, quién ve, quién queda fuera— entonces el debate cambia radicalmente. Ya no se trata de adoptar una herramienta, sino de decidir qué tipo de sistema educativo queremos: uno que refuerce desigualdades existentes o uno que active verdaderas oportunidades para todos.

Por eso, este debate —¿debería el gobierno promover la educación en línea como alternativa a la presencial?— no puede resolverse solo con estadísticas de cobertura o tasas de aprobación. Necesitamos mirar más hondo: entender cómo las plataformas digitales, los algoritmos de recomendación, los modelos de evaluación automatizada y hasta la arquitectura misma de una clase virtual están moldeadas por intereses económicos, visiones pedagógicas particulares y estructuras de poder. Y también, cómo esos elementos afectan a estudiantes reales, en contextos reales, con realidades muy distintas.

En este artículo no vamos a dar una respuesta definitiva. Pero sí vamos a ofrecerte las herramientas para pensar este tema con mayor profundidad, criticidad y responsabilidad. Porque debatir sobre educación en línea no es solo discutir sobre internet… es discutir sobre qué futuro queremos para la enseñanza, la equidad y el papel del Estado en la vida de millones de personas.

Dimensiones de la neutralidad tecnológica

Cuando alguien dice: “La tecnología es solo una herramienta, depende del uso que le des”, suena razonable. Como si tuviéramos en las manos un martillo: puedes construir una casa o romper una ventana. La acción define la moralidad, no el objeto. Pero ¿y si el martillo estuviera diseñado de forma que solo unas manos puedan usarlo bien? ¿Y si pesara tanto que la mayoría no pudiera levantarlo? ¿Y si, además, solo se vendiera en ciertas tiendas, en ciertos barrios?

Entonces ya no es tan claro que el problema sea solo el “uso”. Tal vez el martillo, aunque funcione perfectamente como martillo, ya trae consigo decisiones que excluyen, limitan o favorecen a unos sobre otros. Lo mismo ocurre con la educación en línea. No se trata solo de si es buena o mala, sino de cómo está hecha, para quién, y bajo qué supuestos.

¿Es posible que una herramienta sea neutral… y aun así cause daño?

Vamos a desarmar esa idea de la neutralidad técnica. Sí, desde un punto de vista puramente funcional, una plataforma de clases virtuales puede considerarse “neutral”: transmite video, permite chats, recibe tareas, califica cuestionarios. Hace lo que fue programada para hacer. Pero eso no significa que su impacto sea neutral.

Imagina un sistema de evaluación automatizada que corrige exámenes de redacción usando inteligencia artificial. Técnicamente, funciona: compara palabras clave, estructura sintáctica, longitud del texto. Pero si fue entrenado con miles de ensayos escritos por estudiantes urbanos, de escuelas privadas, hablantes nativos del español estándar… ¿será justo con un joven indígena que escribe en una variedad dialectal rica, pero distinta?

Aquí entra en juego la moralidad del contexto. Una herramienta puede operar con precisión absoluta y, aun así, reproducir injusticias. No porque sea maliciosa, sino porque el entorno donde actúa no es neutral: hay desigualdades de acceso, diferencias lingüísticas, capacidades diversas, realidades socioeconómicas asimétricas.

El uso tampoco es tan libre como parece. Cuando el gobierno promueve masivamente la educación en línea, no está ofreciendo una opción más entre muchas. Está configurando el sistema. Está diciendo: “Así se aprende ahora”. Y eso presiona a docentes, familias y estudiantes a adaptarse… o quedar fuera. No es coerción directa, pero sí una forma sutil de imposición: si no tienes internet, si no tienes dispositivo, si no dominas la interfaz, tu derecho a la educación se ve condicionado por una tecnología que, supuestamente, era solo “una herramienta”.

El diseño nunca es inocente: valores escondidos en el código

Ahora vamos más adentro: al diseño. Porque ahí es donde los valores se vuelven materiales, aunque no los veamos.

Cada decisión técnica es también una decisión política. Elegir que una clase dure 45 minutos con videos pregrabados implica una visión del tiempo, del ritmo de aprendizaje, de la atención. Elegir que la interacción sea mediante chat escrito deja fuera a quienes piensan mejor hablando, o a quienes tienen discapacidades que afectan la lectoescritura. Elegir que el progreso se mida por clics, tiempos de permanencia o respuestas correctas reduce el aprendizaje a datos cuantificables… y deja fuera la curiosidad, la creatividad, la duda.

Hasta la arquitectura de las plataformas envía mensajes. Si el profesor aparece en una ventana grande y los estudiantes en miniaturas pequeñas, ¿qué jerarquía está reforzando? Si la única forma de participar es levantar una mano digital, ¿cuántos se quedarán callados? Si el sistema recomienda contenidos basado en tu historial, ¿cómo evitas quedar atrapado en una burbuja de ideas repetidas?

Y no olvidemos los algoritmos. Muchas plataformas usan sistemas de inteligencia artificial para detectar riesgo de abandono escolar, por ejemplo. Suena útil. Pero si esos algoritmos asumen que “estudiante en riesgo” es quien entra tarde, no entrega tareas o pasa poco tiempo en línea… ¿qué pasa con el estudiante que trabaja de noche, que vive en zona sin señal, que cuida hermanos pequeños? El sistema no ve su contexto. Solo ve datos. Y esos datos, interpretados sin empatía, pueden etiquetarlo erróneamente, negarle apoyos o incluso expulsarlo del sistema.

Todo esto muestra que la tecnología no actúa sola, pero tampoco es pasiva. Tiene lo que algunos llaman agencia: capacidad de influir, de tomar decisiones indirectas, de moldear comportamientos. No porque tenga intención, sino porque fue diseñada por personas con intereses, visiones del mundo y prioridades. Y muchas veces, esas personas vienen de entornos privilegiados, lejos de las realidades más complejas.

Entonces, preguntarnos si el gobierno debería promover la educación en línea no puede empezar por “¿es eficiente?”, sino por “¿para quién sirve este modelo? ¿Quiénes están detrás de su diseño? ¿Qué formas de aprender están siendo valoradas… y cuáles invisibilizadas?”.

Porque si creemos que la tecnología es neutral, corremos el riesgo de adoptar soluciones que parecen modernas, pero que en el fondo refuerzan viejas desigualdades. Y si, en cambio, entendemos que toda tecnología lleva valores inscritos, entonces podemos exigir que esos valores sean justos, inclusivos, democráticos. No como usuarios pasivos, sino como ciudadanos críticos.

Evidencias y ejemplos

Hasta aquí hemos visto que la idea de que “la tecnología es neutral” suena bien, pero se desarma rápido cuando miramos con atención. Ahora vamos a profundizar con casos reales —algunos ya lejanos, otros muy recientes— que nos muestran una y otra vez lo mismo: las herramientas no son inocentes. Detrás de cada sistema, plataforma o algoritmo, hay decisiones humanas que favorecen a unos, excluyen a otros y moldean realidades.

Estos ejemplos no están ahí solo para asustarnos, sino para enseñarnos. Porque si queremos debatir con fundamento si el gobierno debería promover la educación en línea, necesitamos saber cómo han actuado otras tecnologías en contextos parecidos. ¿Qué salió mal? ¿Qué podríamos evitar? ¿Qué señales de alerta ya existen?

Cuando lo supuestamente neutral causa daño: lecciones del pasado

Empecemos por el pasado. A veces creemos que los problemas con la tecnología son nuevos, producto de la era digital. Pero no. Desde hace mucho tiempo, herramientas que parecían neutrales han tenido impactos profundamente políticos y sociales.

Un ejemplo claro es el uso de los archivos biométricos en regímenes autoritarios. Durante el siglo XX, varios gobiernos implementaron sistemas de identificación basados en huellas dactilares, fotografías o registros poblacionales. Técnicamente, eran simples herramientas de organización: almacenaban datos, permitían búsquedas rápidas, mejoraban la eficiencia administrativa. Nada malo en eso, ¿verdad?

Pero en contextos como el apartheid sudafricano o ciertos regímenes militares latinoamericanos, esos mismos sistemas se usaron para perseguir, controlar y eliminar a personas según su raza, origen étnico o filiación política. La tecnología no decía “persigue a este grupo”, pero su diseño —centralizado, clasificador, fácil de manipular— facilitó enormemente esa labor. El archivo no era malvado, pero sí peligrosamente adaptable a fines opresivos.

Otro caso: la televisión estatal en dictaduras. En muchos países, la llegada de la TV fue celebrada como un avance cultural. Podría educar, informar, unificar naciones. Y en teoría, era neutral: transmitía imágenes, punto. Pero cuando un solo Estado controlaba las frecuencias, decidía qué programas se emitían y quién aparecía en pantalla, la “neutralidad” se evaporó. De pronto, lo que parecía una ventana al mundo se convirtió en un altavoz del poder. La tecnología no tenía ideología, pero su uso sí.

¿Qué aprendemos de esto? Que una herramienta puede funcionar perfectamente y aún así servir para dominar, excluir o mentir. Su neutralidad técnica no garantiza justicia. Y si hoy el gobierno promueve masivamente la educación en línea, debemos preguntarnos: ¿quién controla las plataformas? ¿Quién decide qué contenidos se ven, quién accede, quién queda fuera? ¿Y qué pasa si, en el futuro, esos sistemas se usan para monitorear, etiquetar o sancionar a estudiantes?

La historia nos dice que no podemos confiar ciegamente en la bondad de las herramientas. Debemos anticipar sus usos perversos, porque tarde o temprano alguien los encontrará.

Inteligencia artificial y plataformas: la nueva cara de la parcialidad encubierta

Ahora saltemos al presente. Hoy, la discusión ya no gira solo en torno a cables o pantallas, sino a sistemas mucho más invisibles y poderosos: los algoritmos. Y aquí, los ejemplos abundan —y son inquietantes.

Tomemos el caso de los sistemas de recomendación en plataformas educativas. Muchas plataformas de aprendizaje en línea usan IA para sugerir videos, actividades o rutas de estudio. Suena genial: personalización, adaptación al ritmo del estudiante. Pero ¿qué pasa si ese sistema asume que “buen estudiante” es el que avanza rápido, responde rápido y consume mucho contenido?

Un estudio realizado en 2021 en América Latina mostró que estudiantes de contextos vulnerables —muchos de ellos trabajadores, madres adolescentes o personas con responsabilidades familiares— tendían a ser etiquetados como “de bajo rendimiento” por estas plataformas, simplemente porque entraban en horarios atípicos o avanzaban más lento. El algoritmo no sabía que estaban estudiando después de un turno de ocho horas en una fábrica. Solo veía datos fríos: “tiempo de conexión bajo”. Y a partir de ahí, les ofrecía menos recursos, los derivaba a rutas de refuerzo… o los marcaba como “riesgo de abandono”.

Este no es un error técnico. Es un sesgo estructural: el sistema fue entrenado con datos de estudiantes privilegiados, con rutinas estables, acceso constante a dispositivos. Así, reproduce una visión del aprendizaje que deja fuera a quienes viven realidades más complejas.

Otro ejemplo: las herramientas de detección de plagio basadas en IA. Muchas escuelas y universidades las usan para garantizar la honestidad académica. Pero investigaciones recientes han mostrado que estos sistemas tienden a marcar como “plagio” textos escritos por estudiantes cuya primera lengua no es el español estándar, o quienes usan estructuras sintácticas diferentes. ¿Por qué? Porque fueron entrenados con corpus lingüísticos limitados, dominados por hablantes urbanos, escolarizados, de clases medias.

El resultado: un estudiante indígena que escribe con riqueza cultural y gramatical distinta es acusado injustamente de copiar. Nadie lo hizo con mala intención. Pero el sistema, supuestamente neutral, actúa como juez con prejuicios ocultos.

Y no olvidemos las plataformas de videoconferencia. Durante la pandemia, millones de estudiantes pasaron a clases virtuales. Pero muchas de esas plataformas no estaban diseñadas pensando en la inclusión. Algunas no tenían subtítulos automáticos. Otras no eran compatibles con lectores de pantalla. Otras más priorizaban la imagen del docente, minimizando a los estudiantes —una arquitectura visual que refuerza jerarquías tradicionales.

Peor aún: algunas empresas comenzaron a recopilar datos de participación, expresiones faciales e incluso “nivel de atención” de los estudiantes. ¿Con qué fin? Nadie lo dice claramente. Pero ya hay voces que advierten: estamos normalizando la vigilancia en la educación. Y si el gobierno promueve estas plataformas sin regulación, ¿quién tendrá acceso a esos datos? ¿Podrían usarse para evaluar no solo el aprendizaje, sino la “actitud” o la “disciplina” de un joven?

Todos estos casos tienen algo en común: tecnologías que parecen neutras, objetivas, eficientes… pero que en la práctica reproducen desigualdades, castigan la diversidad y transforman la educación en un proceso medido, monitoreado, controlado.

No son fallos aislados. Son patrones. Y nos obligan a repensar esa idea tan cómoda de que “la tecnología es solo una herramienta”. Porque si fuera así, todos los martillos construirían casas. Pero algunos están hechos para derribar puertas.

Implicaciones éticas y políticas

Hasta aquí hemos visto que la tecnología educativa no es un simple canal neutro de conocimiento. Está cargada de decisiones que afectan quién aprende, cómo aprende y quién queda fuera. Entonces, si el gobierno decide promoverla como alternativa principal o incluso sustituta de la escuela presencial, no está haciendo solo una apuesta por la modernización… está asumiendo una responsabilidad enorme. Porque cuando el Estado adopta una tecnología a gran escala, ya no se trata solo de innovación: se trata de justicia, de derechos y de poder.

¿Quién responde cuando la tecnología falla?

Imagina este escenario: durante un año escolar completo, se implementa una plataforma nacional de educación en línea. Un estudiante de secundaria en una comunidad indígena de difícil acceso no puede conectarse más de dos veces por semana por fallas en la red. Al final del ciclo, el sistema lo marca como “bajo rendimiento” y “riesgo de abandono”. Nadie revisa su caso individualmente. No recibe apoyo adicional. A los seis meses, deja la escuela.

¿Quién es responsable?

¿Fue culpa del estudiante por no conectarse? ¿Del profesor, que no pudo monitorearlo bien? ¿De la empresa que diseñó la plataforma sin considerar zonas rurales? ¿O del gobierno, que impuso un modelo sin garantizar condiciones mínimas de acceso?

Este ejemplo no es hipotético. Ha pasado en múltiples países durante la pandemia. Y revela una grieta grave: cuando el Estado delega funciones públicas en tecnologías privadas, a menudo también delega —sin quererlo— su responsabilidad ética y política.

La gobernanza de la educación en línea no puede limitarse a firmar contratos con empresas tecnológicas. Debe incluir mecanismos claros de rendición de cuentas. Esto quiere decir:

  • Que haya instancias independientes que auditen tanto el funcionamiento técnico como el impacto social de las plataformas.
  • Que existan canales accesibles para que estudiantes, familias y docentes puedan reportar sesgos, errores o exclusiones.
  • Que el Estado mantenga el control sobre los datos, los algoritmos y las decisiones pedagógicas, en lugar de dejarlos en manos de corporaciones extranjeras con intereses comerciales.

Porque si el gobierno promueve la educación en línea como política pública, debe ser él quien responda cuando algo salga mal. No puede decir: “fue un error del sistema”. El sistema fue su decisión.

Más allá del “error”: hacia una ética del diseño

Pero no basta con corregir errores después. Hay que prevenirlos antes. Y eso nos lleva a una pregunta fundamental: ¿por qué esperamos a que las tecnologías fallen para cuestionarlas?

Aquí entra el concepto de diseño responsable. No se trata solo de que una plataforma funcione bien, sino de que esté construida bajo principios éticos claros: inclusión, transparencia, autonomía del usuario, equidad.

Un ejemplo concreto: una plataforma que detecta “riesgo de abandono” no debería basarse solo en datos cuantitativos (horas conectado, tareas entregadas). Debería permitir que el docente o el orientador introduzca contexto cualitativo: “este estudiante trabaja por las noches”, “tiene hermanos a su cargo”, “su comunidad perdió señal por lluvias”. Así, el algoritmo no juzga en vacío, sino que sirve como apoyo, no como juez.

Otro principio clave: el co-diseño. Las tecnologías educativas no deberían ser creadas solo por ingenieros en oficinas urbanas. Deben involucrar a docentes, estudiantes, familias, comunidades indígenas, personas con discapacidad. Porque quienes viven las desigualdades saben mejor qué soluciones verdaderamente funcionan.

Marcos normativos: leyes que protejan el derecho a aprender

Hoy, muchos gobiernos firman acuerdos con grandes plataformas digitales sin exigir garantías claras sobre privacidad, sesgos algorítmicos o interoperabilidad. Es como comprar mil computadoras sin revisar si tienen virus.

Por eso, es urgente desarrollar marcos normativos que conviertan la educación digital en un servicio público con salvaguardas sólidas. Algunas ideas:

  • Leyes de transparencia algorítmica: obligar a las empresas a explicar cómo funcionan sus sistemas de evaluación, recomendación o detección de riesgo.
  • Auditorías tecnológicas independientes: revisiones periódicas por expertos en ética digital, pedagogía y derechos humanos.
  • Presupuestos para conectividad universal: porque promover la educación en línea sin garantizar internet para todos es como promover el transporte público sin construir caminos.
  • Protección de datos educativos: prohibir que la información de los estudiantes sea usada con fines comerciales o represivos.

Estos marcos no buscan frenar la innovación, sino orientarla. No se trata de decir “no a la tecnología”, sino de decir “sí, pero con condiciones”.

Porque al final, el debate no es solo sobre pantallas o conexiones. Es sobre qué tipo de sociedad queremos. Una donde la educación se convierte en un proceso automatizado, controlado, segmentado… o una donde la tecnología amplifique el derecho a aprender, con dignidad, diversidad y justicia.

Y si el gobierno va a promover la educación en línea, debe hacerlo no como un gestor de plataformas, sino como garante de un contrato social: que nadie quede atrás, no por falta de dinero, de señal o de voz.

Guía para el debate constructivo

Llegó el momento de poner en práctica todo lo que hemos reflexionado. Debatir sobre educación en línea no es solo exponer ideas, sino construir diálogos que revelen la complejidad del tema y ayuden a tomar decisiones más informadas. Aquí te ofrezco herramientas concretas para que tu participación sea sólida, crítica y respetuosa.

Estrategias de construcción de tesis y refutación

Formular postulados que reconozcan la complejidad

En este debate, las posturas simplistas ("todo online es bueno" o "todo online es malo") suelen ser las más débiles. En lugar de eso, construye tesis que integren las dimensiones que hemos explorado:

Ejemplo de tesis sólida para el lado afirmativo:

El gobierno debería promover la educación en línea como alternativa complementaria, no sustitutiva, estableciendo primero garantías de acceso universal, formación docente específica y marcos éticos para el diseño de plataformas.

Ejemplo de tesis sólida para el lado negativo:

El gobierno no debería promover la educación en línea como alternativa generalizada hasta que no se demuestre su capacidad para no reproducir desigualdades estructurales y proteger los datos de los estudiantes.

Nota cómo ambas reconocen matices: una habla de "complementariedad" y la otra de "hasta que no se demuestre". Esto te da más terreno para maniobrar durante el debate.

Anticipar contraargumentos de manera estratégica

No esperes a que el equipo contrario te sorprenda. Piensa por adelantado qué objeciones podrían tener y prepara respuestas.

Si defiendes la promoción gubernamental:
- Anticipa: "Pero ¿qué pasa con los estudiantes sin internet?"
- Tu preparación: "Precisamente por eso la promoción debe incluir políticas de conectividad universal, como ha hecho Uruguay con el Plan Ceibal."

Si te opones a la promoción:
- Anticipa: "¿Acaso no es más inclusivo llegar a zonas remotas?"
- Tu preparación: "Llegar físicamente no garantiza inclusión si la plataforma no considera diversidades culturales y lingüísticas."

Organizar refutaciones en capas

Cuando respondas, no te limites a decir "no estoy de acuerdo". Construye refutaciones que muestren por qué el argumento contrario es incompleto:

  1. Refutación factual: "Su dato sobre el 95% de cobertura internet no considera la calidad de conexión en zonas rurales."
  2. Refutación conceptual: "Su definición de 'acceso' se limita a tener dispositivo, pero ignora la capacidad de uso significativo."
  3. Refutación de valores: "Su argumento prioriza eficiencia sobre equidad, cuando la educación es un derecho fundamental."

Presentación de evidencia y manejo de datos

Seleccionar pruebas que iluminen, no solo demuestren

En este debate, los datos crudos pueden engañar. Una tasa de aprobación del 80% en cursos online suena bien, pero ¿qué pasa si ese 20% que reprueba coincide exactamente con estudiantes de bajos ingresos? Busca evidencias que muestren patrones, no solo números aislados.

Ejemplo de evidencia bien presentada:

Según el estudio de la UNESCO 2023, mientras el 75% de estudiantes urbanos mejoraron sus calificaciones con educación online, el 68% de estudiantes rurales las empeoraron. Esto sugiere que el problema no es la tecnología en sí, sino su interacción con desigualdades preexistentes.

Interpretar críticamente las limitaciones

Sé honesto sobre lo que tus datos pueden y no pueden demostrar. Esto te da credibilidad:

Estos datos muestran correlación, no causalidad. Podría ser que los estudiantes rurales tuvieran menos apoyo familiar durante las clases online, no que la plataforma fuera inherentemente mala.

Comunicar hallazgos con claridad contextual

No digas solo "un estudio muestra que...". Explica por qué ese estudio es relevante para nuestro contexto específico:

La experiencia de Finlandia con educación híbrida es interesante, pero debemos considerar que parten de una sociedad con menor desigualdad digital que la nuestra.

Gestión de preguntas y dinámica de equipo

Dirigir preguntas que revelen, no que atrapen

Las mejores preguntas no buscan hacer caer al oponente, sino exponer supuestos ocultos:

  • En lugar de: "¿Acaso no sabe que muchos no tienen internet?"
  • Mejor: "¿Cómo garantizaría su propuesta que estudiantes en zonas sin conectividad estable no queden excluidos?"

Distribuir roles según fortalezas

En equipo, no todos deben hacer lo mismo. Designen roles complementarios:

  • El conceptual: Desarrolla los marcos teóricos sobre neutralidad tecnológica
  • El empírico: Maneja datos, casos y estudios
  • El ético: Explora dimensiones de justicia, equidad y derechos
  • El sintetizador: Cierra argumentos conectando puntos diversos

Mantener el debate enfocado y justo

Establezcan reglas básicas desde el inicio:
- No personalizar críticas
- Reconocer méritos en argumentos contrarios
- Usar tiempos de manera equitativa
- Volver al núcleo del debate cuando se desvíe

Recuerda: el objetivo no es "ganar", sino explorar colectivamente un tema complejo que afecta vidas reales. Tu preparación en estas estrategias te permitirá contribuir a un diálogo que realmente ilumine las decisiones sobre nuestro sistema educativo.

Conclusión

Hacia una superación de la falsa neutralidad

Si hay algo que este recorrido nos ha dejado claro, es que no existe una tecnología educativa neutral. Detrás de cada plataforma, de cada algoritmo de recomendación, de cada sistema automatizado de evaluación, hay decisiones: sobre quién aprende, cómo se mide ese aprendizaje, qué formas de conocimiento se valoran y cuáles se ignoran. Asumir que la educación en línea es simplemente una herramienta más —como un libro o un pizarrón— es caer en una ilusión peligrosa. Porque mientras el pizarrón no decide quién puede usarlo, la plataforma sí lo hace: a través de sus requisitos técnicos, su arquitectura de interacción, su lógica de exclusión silenciosa.

Promover la educación en línea como alternativa a la presencial no es, entonces, una decisión técnica. Es una decisión política, ética y social. Y cuando el gobierno impulsa esta transición, no está siendo un simple facilitador: está tomando partido. Está diciendo, con acciones más que con palabras, que cierto modelo de educación —digital, medible, estandarizada, conectada— es preferible a otros. Pero ¿a costo de qué? ¿A costa de dejar atrás a quienes no tienen señal estable, dispositivos adecuados o apoyo familiar para navegar interfaces complejas? ¿A costo de transformar el aula en un espacio de vigilancia algorítmica, donde cada clic, cada pausa, cada retraso se convierte en dato para predecir riesgos… o etiquetar fracasos?

La neutralidad, en este caso, sirve como excusa para no asumir responsabilidades. Si la tecnología falla, se dice: “fue el uso”, “el estudiante no se adaptó”, “las condiciones no eran ideales”. Nunca: “nosotros diseñamos un sistema que excluye”.

Más allá de este debate: preguntas pendientes

Este análisis, sin embargo, tiene sus límites. No hemos podido explorar en profundidad cómo la educación en línea afecta el desarrollo socioemocional de los jóvenes, especialmente en etapas cruciales como la adolescencia. Tampoco hemos abordado suficientemente el rol de las familias, muchas veces convertidas en soporte técnico no remunerado, tutores involuntarios y guardianes de la conexión. ¿Qué pasa con los padres que trabajan doble turno y no pueden acompañar a sus hijos? ¿Con las madres solteras que deben elegir entre atender a sus hijos o cumplir con sus propias labores?

Tampoco hemos indagado en el poder de las empresas tecnológicas que proveen estas plataformas. Cuando un gobierno firma un convenio con una multinacional para dotar de tablets o acceso a una nube educativa, ¿quién controla los datos? ¿Quién define los contenidos? ¿Quién audita los algoritmos? Hay un riesgo muy real de que, en nombre de la modernización, se privatice progresivamente el derecho a la educación, convirtiéndolo en un servicio dependiente de intereses comerciales.

Y otra pregunta queda flotando: ¿es posible imaginar una educación en línea que no sea impuesta desde arriba, sino construida desde abajo? ¿Una educación digital que surja de las comunidades, que use tecnologías libres, que priorice la comunicación humana sobre la eficiencia algorítmica?

Hacia una educación digital con rostro humano

El debate, entonces, no debería ser simplemente “¿sí o no al gobierno promoviendo la educación en línea?”. Debería ser: ¿qué tipo de educación queremos, y con qué medios estamos dispuestos a construirla?

Porque no se trata de rechazar la tecnología. Se trata de domesticarla. De exigir que sirva a la educación, y no al revés. Que amplifique voces, en lugar de silenciarlas. Que reduzca brechas, no que las disfracen de modernidad.

El camino no es la sustitución total, ni la resistencia absoluta. Es la hibridación crítica: combinar lo mejor de lo presencial —la cercanía, el vínculo, la empatía— con lo útil de lo digital —el acceso a recursos, la flexibilidad, la personalización real, no simulada.

Pero para eso, el gobierno no puede limitarse a comprar tablets o firmar contratos. Debe asumirse como garante de un contrato educativo digital justo: con conectividad universal garantizada, con plataformas auditadas éticamente, con participación real de docentes, estudiantes y comunidades en su diseño, con protección absoluta de los datos personales y con mecanismos claros de rendición de cuentas.

La educación no es un sistema de entrega de contenidos. Es un acto político, cultural y profundamente humano. Y si alguna vez va a funcionar en línea, debe conservar ese rostro humano —porque si no, no será educación: será solo otra forma de exclusión con internet.