julio 16, 2025
Portada » Blog » ¿Por qué la versión en voz de ChatGPT no está a la altura de su rigor escrito?

¿Por qué la versión en voz de ChatGPT no está a la altura de su rigor escrito?

Como periodista y usuaria intensiva de inteligencia artificial aplicada a la cobertura geopolítica, derechos humanos y análisis interpretativo, me he convertido en testigo y constructora de un experimento riguroso: desarrollar protocolos éticos y narrativos para el uso profesional del modelo escrito de ChatGPT. Gracias a ello, he logrado producir investigaciones con altos estándares de precisión, sobriedad argumental y continuidad contextual, en sintonía con lo que exige el trabajo de prensa crítica en un mundo cada vez más desinformado.

Pero hoy, como tantas veces ocurre con los avances tecnológicos, surge una brecha. Una grieta estructural que no puede pasarse por alto: la versión en voz de ChatGPT, pese a su promesa de cercanía e inmediatez, no está a la altura del rigor que ha logrado su contraparte escrita.

La experiencia es clara. Mientras que el modelo textual respeta marcos de interacción, acumula contexto, aplica protocolos definidos por el usuario y mantiene niveles elevados de precisión, la versión en voz simplifica, interrumpe, omite, desestructura y desconoce toda continuidad crítica. No se trata de una diferencia menor: para quienes trabajamos con información sensible, tiempo real, enfoque ético y responsabilidad editorial, esta disociación puede volverse un obstáculo severo.

La voz de la IA no puede limitarse a una cortesía conversacional. Cuando se habla de guerra, de desplazamientos forzados, de operaciones de propaganda o de delitos de lesa humanidad, lo que se necesita no es una voz amable: es una voz informada, sobria y rigurosa, capaz de respetar el peso de lo que se está diciendo.

Por eso, esta carta es también una propuesta. Solicito, desde el lugar que me corresponde como periodista profesional:

Que OpenAI considere el desarrollo o activación de una versión en voz adecuada para el uso periodístico, académico y ético de alto nivel, que respete protocolos definidos y mantenga la memoria contextual activa.
Que se habilite la opción de perfiles profesionales configurables (periodismo, derecho, investigación científica, etc.), para que la IA responda con el tono, nivel y densidad apropiados.
Que se cree un canal directo de retroalimentación profesional, donde podamos compartir experiencias, limitaciones estructurales y propuestas de mejora, sin que estas se diluyan en respuestas automatizadas.
Esta carta fue enviada formalmente al equipo de soporte de OpenAI el 9 de julio de 2025. Su publicación responde a la necesidad de que este tipo de solicitudes no queden invisibles en bandejas de entrada gestionadas por algoritmos.

No es una queja. Es una demanda razonada, nacida de una experiencia sostenida, profesional, constructiva y honesta. Porque quienes hacemos prensa ética, análisis riguroso y pensamiento crítico no podemos renunciar a las herramientas tecnológicas. Pero tampoco podemos aceptar que esas herramientas estén diseñadas solo para lo superficial.

La voz de la inteligencia artificial no puede quedarse en lo decorativo. Debe estar a la altura de lo que está en juego.

Fuente: pressenza.com