Cuando una persona tiene dificultades para expresar sus ideas por escrito o carece de información sobre un tema, suele acudir a herramientas de Inteligencia Artificial (IA) como ChatGPT. En su versión gratuita, esta plataforma permite interactuar con un asistente virtual que se adapta a distintos estilos y, en algunos casos, incluso influye en las decisiones de quienes la utilizan.
Pero ¿qué tan recomendable resulta hacerlo? Un estudio del Instituto Tecnológico de Massachusetts (MIT) reveló que las personas que usaron únicamente ChatGPT mostraron menor activación neuronal en ciertas áreas del cerebro y presentaron dificultades para recordar o reconocer los textos que habían elaborado.
Por su parte, el experto en tecnología Rodolfo Salazar recomienda aprender a usar la Inteligencia Artificial como una herramienta para potenciar el conocimiento y apoyar tareas sencillas, sin renunciar a la capacidad de decisión humana.
Video / TCS. / Reportaje elaborado por: Raquel Castaneda.
«En lugar de tomar una foto, por ejemplo, en el supermercado y decir: «¿Qué producto me recomendás?» en vez de eso decirle: «Mira esos tres productos y con base a las necesidades que tengo yo y el presupuesto que tengo quiero que me hagas un ranking y que me digas comparativamente cómo me sirven». Entonces ahí te da los tres productos, te hace una comparación y el que decide es el humano, porque el criterio final debe ser siempre del ser humano», enfatizó Salazar.
Te podría interesar: El Salvador construirá el primer cable submarino de Internet
La Inteligencia Artificial no sustituye la orientación profesional
Aunque la herramienta esté disponible las 24 horas, no es recomendable confiar plenamente en ella; lo más prudente es buscar orientación de profesionales.
«Yo puedo gestionar mis emociones y llevarlo como un diario, en el cual a diferencia de sólo escribir yo puedo tener como una retroalimentación, pero hasta ahí. Luego yo necesito ventilar, ver que más cambios puedo hacer. La Inteligencia Artificial, por ejemplo, no puede entender toda mi historia como lo puede llevar un profesional, no puede diagnosticar, va a tener sus limitantes», resaltó la coach de vida, Idalia Cabezas.
La propia herramienta aclara que ChatGPT no es una persona y no debe entenderse como tal.
- No tiene conciencia.
- No siente emociones.
- No decide por cuenta propia.
Funciona únicamente como una herramienta tecnológica de apoyo para las personas.
¿Puede cometer errores? Sí. Por esa razón, en asuntos como noticias, ciencia o salud, resulta fundamental contrastar la información con fuentes confiables.
La Inteligencia Artificial puede orientar, pero la responsabilidad y la decisión final dependen siempre de la persona.









