Cualquiera que haya escrito un artículo científico sabe bien lo complejo que es. La ardua (y a veces tediosa) revisión de la literatura viene acompañada de la propia investigación, y no basta con decir algo, es necesario aportar nuevos resultados. A esto hay que sumarle el cuidadoso manejo de las citas y referencias, y todo ello debe expresarse con orden y precisión.
La guinda del pastel es que tenemos que escribir en inglés, el idioma dominante de la ciencia; Aquellos de nosotros que no somos hablantes nativos estamos en clara desventaja.
Hasta hace poco, las herramientas disponibles se limitaban a corregir gramática y estilo. Hoy en día, la inteligencia artificial generativa (GenAI) puede reescribir párrafos enteros, sintetizar resultados e interpretarlos, o sugerir párrafos que amplían el contenido de una sección de un manuscrito, todo en un inglés correcto y académicamente apropiado.
Pero no es oro todo lo que reluce. Varios estudios recientes muestran que cuando las personas saben que el texto se creó utilizando IA, es menos probable que confíen en su autor. Puede parecer que la solución pasa por ocultar su uso, pero esto no soluciona el problema: si el lector sospecha que los autores utilizaron IA sin declararlo abiertamente, la desconfianza puede ser igual o incluso mayor.
Surge así un verdadero dilema ético: ¿declarar o no declarar su uso?
Por qué es importante que tu texto no parezca inteligencia artificial
Descubrir si el texto fue generado por inteligencia artificial no es tan fácil como parece. Y según una investigación publicada en Proceedings of the National Academy of Sciences, las personas cometen errores cuando usan su intuición para determinar si un texto es artificial.
Esto es lo que clasificamos como lenguaje demasiado formal o complejo o escritura impersonal o fría. Por el contrario, asumimos que los textos que incluyen experiencias personales provienen de autores humanos.
El problema es que muchas de estas señales son engañosas. De hecho, los modelos de lenguaje de gran tamaño (LLM) son perfectamente capaces de adaptar la formalidad del lenguaje que utilizan, imitando un tono familiar o incluyendo ejemplos y anécdotas en primera persona.
El resultado es sorprendente: si nos guiamos puramente por nuestra intuición, los textos generados por IA pueden parecer más típicos de autores humanos que los escritos realmente por un humano. Peor aún: nuestro poder de detección disminuye a medida que mejoran los modelos.
la intuición engaña
Un estudio publicado en la revista Teaching English With Technology lo confirma: la tasa de detección de visitas cayó del 57,7% en versiones anteriores de ChatGPT a casi el 50% en versiones más recientes. Esto equivale a lanzar una moneda al aire.

Representación esquemática de una red neuronal profunda: desde un único punto de entrada (izquierda), la información se procesa a través de capas sucesivas de nodos para producir resultados complejos (derecha). Es la arquitectura que subyace a modelos como ChatGPT o Gemini, que están diseñados para predecir en cada etapa el fragmento de texto estadísticamente más probable. Huellas de Google DeepMind/Pexels que indican el uso de GenAI
Si bien la detección perfecta es imposible, existe un conjunto de patrones lingüísticos que pueden revelar su uso:
Uso excesivo de construcciones antitéticas al utilizar repetidamente frases como “No sólo X, sino también Y” o “X en lugar de Y” para enfatizar un argumento sin aportar nueva información.
Reformulación consecutiva de una misma idea con menores variaciones. Este matiz de aparente profundidad se limita a alargar el texto sin añadir contenido significativo. En los textos científicos, esta redundancia puede resultar contraproducente.
Listas de tres elementos como “Este método mejora la precisión, reduce los errores y optimiza el rendimiento”. La estructura tripartita es un recurso retórico clásico utilizado para reforzar ciertas ideas, pero su uso repetido produce un ritmo uniforme, casi mecánico.
Expresiones innecesarias como “Lo siguiente es…” o “El punto es…” es un tic común de los sistemas de IA que hablan sobre texto en lugar de ir al grano.
Los textos generados por IA tienden a contener más sustantivos abstractos y menos pronombres, lo que da como resultado una prosa densa. Por ejemplo, en lugar de escribir “El modelo analiza los datos y luego los compara”, GenAI podría decir “El modelo analiza los datos y compara los resultados”.
Mientras que los humanos alternan naturalmente entre oraciones cortas y largas, la GenAI tiende a producir oraciones de igual longitud, generando un ritmo monótono.
La combinación de fragmentos generados por IA con fragmentos escritos por humanos da como resultado inconsistencias en el uso de mayúsculas, negrita o viñetas, lo que indica autoría mixta y crea la impresión de descuido.
Recomendaciones prácticas
¿Qué podemos hacer para evitar que nuestros textos parezcan escritos por una máquina? Algunos consejos:
Limitar o eliminar construcciones contrapuestas innecesarias.
Reducir las repeticiones que no aportan información nueva.
Varíe la longitud de las oraciones y los párrafos.
Reemplace los sustantivos repetidos con pronombres a menos que haya ambigüedad.
Elimine el metalenguaje innecesario y evite listas con títulos en negrita.
Unifique el formato y verifique cuidadosamente la coherencia final, asegurándose de que el texto no se convierta en un rompecabezas de estilo debido a la mezcla de fragmentos generados por GenAI y otros fragmentos generados por humanos.
La inteligencia artificial puede ahorrar tiempo en tareas de inteligencia artificial y facilitar la escritura en un idioma extranjero, ayudar a estructurar ideas o mejorar la claridad gramatical. Pero no podemos utilizarlo como sustituto de la experiencia humana para absolver de responsabilidad al investigador firmante. En ciencia, la confianza es tan importante como la precisión.
Y no podemos delegar esta confianza en un algoritmo cuyo resultado sea generar el texto más probable. La IA no puede reemplazar a los investigadores, pero puede brindar un apoyo valioso. Nuestro desafío, entonces, es aprender a utilizar este apoyo de manera ética y profesional.

