Hay 16000 instituciones educativas que están usando el mismo software para detectar textos generados por #IA. Se llama #Turnitin. El problema es que perjudica a los hablantes no nativos: como redactan de manera más simple o predecible, tiende a pensar que sus textos los escribió una IA.
Y no es un problema menor: según una prueba de la universidad de Stanford, el 61% del alumnado que escribe en inglés sin ser su lengua materna es acusado de usar IA.
@algorights Además es sólo cuestión de tiempo que los textos generados por IA sean indistinguibles de los generados por hablantes nativos de la lengua en cuestión (ni digamos según niveles de destreza discursiva y formación en el área).
@rival Ya ocurre que este tipo de detectores tienen un margen de error amplísimo... Y el estudio de Stanford da una solución curiosa para estudiantes extranjeros: pedirle a ChatGPT que transforme su texto añadiéndole vocabulario más complejo. De esa forma, paradójicamente, se reduce la posibilidad de dar positivo.
@algorights Claro, justamente a eso iba: las "IA" (o LLM) se modelan en gran medida para imitar el cerebro humano (en ciertos aspectos al menos) y consecuentemente el discurso que producen es cada vez más parecido al humano, y eventualmente será mejor. Están diseñadas para ser indistinguibles, de modo que querer distinguirlas es una carrera algo esquizofrénica, digamos.
@algorights @rival justo citaba la decisión de la Vandervilt University de no utilizar el "IA connector" de turnitin, entre otras razones, por las que apuntáis en el hilo
@rb3n @algorights Interesante, gracias por el link.
@algorights encuentro bastante hipócrita que los profesores exijan a sus alumnos dedicación, tiempo y esfuerzo hasta a la más absurda de las tareas que le son asignadas, pero a la hora de corregir se pueden recortar esquinas por todas partes. será que sólo los profesores tienen moralmente permitido ahorrarse trabajo, incluso si la docencia sufre por ello