La última sesión del diplomado de
escritura académica, del que soy docente, versó sobre la inteligencia
artificial, IA, y su efecto en la enseñanza de la escritura académica. Durante
el curso, como un proceso de experimentación, yo hice cada una de las tareas
que envié a mis estudiantes con aplicaciones de IA como ChatGPT y Bard: párrafos
narrativos, descriptivos, de comparación y contraste de 200 palabras; ensayos
de argumentación y de comparación y contraste de 700 palabras.
Los objetivos de mi investigación fueron: 1) comprobar
que todas las tareas del curso, tal como estuvieron concebidas, eran
susceptibles de ser cumplidas en minutos mediante una aplicación de IA; 2) demostrar
a los estudiantes del diplomado, que son docentes, la dificultad de detectar qué
trabajo es redactado por IA y cuál no; y, 3) reflexionar, entre quienes
participamos del diplomado, acerca de la honestidad académica y el uso de IA en
el cumplimiento de tareas.
La conclusión provisional es que, si bien la IA se ha
convertido en un instrumento, inevitable e imprescindible, para el proceso de
investigación, la IA también constituye un riesgo, de incalculables
consecuencias, para el desarrollo de una destreza básica como escribir, si
aquella reemplaza al estudiante en el ejercicio mismo de la escritura.
¿Qué
es la inteligencia artificial?
Antes que nada, partamos de una definición general: «La
inteligencia artificial, IA, es una rama de la informática que se ocupa de la
creación de agentes inteligentes, que son sistemas que pueden actuar de forma
autónoma para lograr sus objetivos. La IA se basa en la idea de que los
sistemas informáticos pueden imitar la inteligencia humana en tareas como el
razonamiento, el aprendizaje y la resolución de problemas».
La IA, entre otras, tiene una amplia gama de
aplicaciones cotidianas: 1) asistentes virtuales como Siri o Alexa; 2)
automóviles autónomos; 3) cirugía robótica; 4) reconocimiento facial; 5)
instrumentos domésticos como el robot que aspira y trapea; 6) publicidad en
función de los intereses del público escogido.
Riesgos
de la inteligencia artificial
Si bien la IA es una tecnología que,
sin duda, mejorará nuestras vidas, no hay que perder de vista algunos riesgos
inherentes a su desarrollo actual y futuro:
sesgo,
privacidad,
seguridad
y
otros.
Sesgo: dado que la IA se basa en datos,
estos pueden ser sesgados y si los datos para entrenar un sistema de IA están
sesgados esto puede generar resultados injustos o discriminatorios. En este
sentido, «un sistema de IA utilizado para predecir la probabilidad de que una
persona sea condenada por un delito podría estar sesgado en contra de las
personas de color. Esto se debe a que los datos utilizados para entrenar el
sistema podrían reflejar los sesgos de la aplicación de la ley, que
históricamente ha sido discriminatoria contra las personas de color».
Privacidad: la IA requiere enorme cantidad de datos para su
entrenamiento y desarrollo, que incluye información personal como datos de
ubicación, datos biométricos y datos de salud; el uso de estos datos afecta la
privacidad de las personas. Así, «un sistema de IA utilizado para rastrear los
movimientos de las personas podría ser utilizado para espiar a las personas» y «un
sistema de IA utilizado para identificar personas en imágenes podría ser
utilizado para crear una base de datos de rostros de personas».
Seguridad: Dado que, en el momento actual, los sistemas de IA son
vulnerables a los ataques cibernéticos, si un sistema de IA es atacado, podría
ser utilizado para causar daño o para robar información. «Por ejemplo, un
sistema de IA utilizado para controlar un vehículo autónomo podría ser atacado
para causar un accidente. Un sistema de IA utilizado que opera un sistema de
armas podría ser atacado para causar daños».
Además, se estima que el desarrollo de la IA, en un
futuro cercano, generaría un crisis social por la pérdida de puestos de
trabajo, ya que los sistemas de IA automatizarán tareas que, actualmente, son
realizadas por las personas; asimismo, la IA tendría una peligrosa influencia
en las decisiones humanas, lo que conduciría a una dependencia intelectual
permanente y a la toma de decisiones erróneas; y, finalmentente, su impacto
en la sociedad conduciría a modificar la convivencia social y las prácticas
democráticas tal como hoy las conocemos.
IA y escritura académica
¿Se asemeja el uso de
la IA para la escritura al uso de la calcudora para resolver problemas matemáticos?
Aún no estoy seguro de ello. Me parece que la calculadora es un auxiliar del
estudiante para resolver problemas y que la IA es, en cambio, un reemplazo del
estudiante para realizar un ejercicio de escritura. Si la IA puede escribir todos
los ejercicios que se requieren para desarrollar la escritura académica, y, en
este sentido, hacer las tareas del estudiante, ¿serían mayores los riesgos que
los beneficios de usarla?
No quiero ser pesimista sin más. Los beneficios de la
IA para que los estudiantes escriban de manera más eficiente y efectiva, ya
está en uso. En primer lugar, «la IA puede ayudar a los estudiantes a encontrar
información, a organizar sus ideas y a corregir errores. También puede ayudar a
los estudiantes a aprender sobre diferentes estilos de escritura y a
desarrollar su propio estilo». En segundo, «la IA puede ayudar a los profesores
a evaluar la escritura de los estudiantes de manera más precisa y eficiente.
Por ejemplo, la IA puede ayudar a los profesores a identificar errores
gramaticales y de estilo, así como a proporcionar retroalimentación
constructiva a los estudiantes».
Los
riesgos, asimismo, ya se perciben, no solo como potenciales sino como problemas
que, actualmente, nacen y se multiplican sin control. Y aquí es donde radica mi
pesimismo en tanto docente. Del sesgo ya hemos hablado más arriba; aquí solo
añadiremos lo nocivo que el sesgo, disfrazado de tecnología, puede resultar
para los trabajos de investigación que terminarán cargados de prejuicios o
normalizaciones ideológicas aceptadas por el establecimiento.
Dos son los
problemas más graves del uso indebido de la IA durante el proceso de aprendizaje
de la escritura académica. El primero, es el plagio: si la IA puede
escribir las tareas, es decir los ejercicios que debe realizar quien está
aprendiendo, es como si el estudiante le pidiera a alguien más que le haga su
tarea: cumple con el deber, pero no aprende. El segundo, es la dependencia:
el uso abusivo de la IA para realizar tereas terminará por suplantar a quien
necesita desarrollar, justamente con la práctica de la propia escritura, las
habilidades de la escritura académica.
Hay
que tener consciencia de los riesgos potenciales de la IA en la escritura
académica. Para minimizar estos riesgos, se recomienda: «a) utilizar la IA como
una herramienta complementaria, no como un sustituto de la escritura humana; b)
ser consciente de los sesgos potenciales de los datos utilizados para entrenar
los sistemas de IA; y c) enseñar a los estudiantes sobre el plagio y cómo
evitarlo». Adicionalmente, es indispensable tener claro el sentido de la
honestidad académica y reflexionar sobre una verdad de perogrullo: si un
estudiante me entrega un ejercicio hecho con IA y no por ella o por él, no es a
mí a quien está engañando sino a sí mismo.
Final, no tan abierto
Todos
los ejercicios enviados, en el curso de diplomado, para ejercitar la escritura
académica también fueron realizados por una aplicación de IA. ¿Podría enviar
otro tipo de ejercicio? Hasta donde le he dado vueltas al asunto, no es posible:
la única manera de aprender a escribir es escribiendo. ¿Qué hacer para prevenir
que, por pereza o falta de escrúpulos, quienes estén estudiando elijan que la
IA haga sus tareas? No tengo una respuesta definitiva al respecto; sin embargo,
es posible que tengamos que, por un tiempo, implemetar las tareas en clase y a
mano, sin posibilidad de consultar Internet. O, hablar con nuestro estudiantado
y reflexionar sobre los problemas éticos y prácticos que se derivan del
permitir que la IA piense y escriba por nosotros. O, por lo pronto, utilizar ambas
estrategias.
En un
artículo aparecido, originalmente, en The
New York Times el 24 de marzo de 2023 y reproducido parcialmente por un
sinnúmuero de medios digitales, el famoso historiador israelí Yuval Noah Harari, junto a Tristan
Harris y Aza Raskin, cofundadores del Center
for Humane Technology,
advierten, dramáticamente, sobre el caos que producirá la IA si no es regulada
oportunamente. Harari y sus colegas afirman que el lenguaje es el sistema
operativo de la cultura humana y que la IA puede piratearlo y manipularlo.
Ya sucedió con la IA detrás de las redes sociales que aumentó la
polarización social, socavó nuestra salud mental y deshizo la democracia. Ellos
advierten que, una vez que llegue el caos producido por la IA, será demasiado tarde
para remediarlo: «La democracia es una conversación, la conversación se basa en
el lenguaje, y cuando el lenguaje mismo es pirateado, la conversación se rompe
y la democracia se vuelve insostenible».
Nota bene: En este artículo, que describe el problema de manera
general e inicial, la información recogida sobre IA y todos los textos
entrecomillados —salvo el último que está debidamene referido— fueron
producidos por una aplicación de IA. Las imágenes que ilustran el artículo
fueron producidas por la IA llamada Craiyon bajo mis instrucciones. Tanto la
introducción y la conclusión así como las advertencias sobre el uso
indiscriminado de la IA son de mi exclusiva autoría.