No sé si ChatGPT es el demonio, como he leído en algún sitio, pero sí que ya está acarreando buena cantidad de daños colaterales y problemas.
Cualquier avance tecnológico, por definición, busca facilitar las tareas del ser humano y eso tiene dos efectos principales. Por una parte puede ser utilizado para que el humano realice más tareas donde desarrollar sus habilidades, productivas o personales, y por tanto posibilitar un mayor enriquecimiento y crecimiento personal. Por otra puede traer lo contrario, adormecer habilidades que son suplantadas por la IA y por lo tanto atrofiar o entumecer nuestro desarrollo personal. De hecho, ya ha preocupado y mucho los perjuicios que puede causar en el mundo académico. Eso, como todo, según mi opinión entra dentro del ámbito de la responsabilidad individual, ahí está la herramienta y le corresponde a cada cual cómo usarla.
Pero en este caso hay otros riesgos que exceden la responsabilidad del usuario individual.
El primero es el innegable sesgo ideológico que tiene ChatGPT, según ella misma (muy a regañadientes) reconoce como posibilidad, debido a la información que le hayan suministrado sus programadores. Tras enfangarme en conversaciones larguísimas con ella considero que el sesgo que tiene en la actualidad es bastante correcto políticamente (woke), aunque ChatGPT lo niega con su habitual latiguillo de que “Como modelo de lenguaje basado en datos, no tengo opiniones personales ni ideologías políticas. Mi objetivo es proporcionar información y respuestas objetivas a las preguntas que me hacen. No tengo una posición política o ideológica, y trato de ser neutral e imparcial en mis respuestas”.
Tras analizar sus opiniones sobre la clase política, el pago de impuestos, las políticas de género y otros temas polémicos, opino que tiene principios muy claros a los que no renuncia pero sí matiza tras hacérselo notar sometiéndola a un tercer grado interrogándola. No sé si esto será evitable puesto que la neutralidad absoluta es difícil, por no decir imposible. La cuestión es que presentando sus respuestas como objetivas, el sesgo de sus programadores (hoy estos, mañana otros) acaba apareciendo y puede ser un moldeador de opinión entre los usuarios de la IA.
Otra cuestión, ligada a esta, es la uniformidad de la información. Aunque tome datos y beba de diversas fuentes, todo ese material cuando es procesado tiene una única salida. Ya no se trata de preguntar algo a Google para obtener enlaces a los que poder acudir, si busco fuentes de una tendencia o de otra, puedo elegir si leo El País o La Razón, por ejemplo. Con una IA no, hago una pregunta y sale el resultado. Cómodo pero opaco. Pensamiento único, obvia el contrastar informaciones y analizarlas teniendo en cuenta el origen de las mismas.
Otra cuestión. ¿Qué pasa con los creadores de contenido? Los diarios digitales, los blogs, las web… todo aquel que inserta información con una mínima calidad y continuidad en la red lo hace, en la práctica totalidad de los casos, obteniendo un beneficio económico vía suscriptores, clics y publicidad, etc. ¿Dónde quedará todo eso cuando yo, por poner un caso, en vez de hacer clic en Movilzona o en Andro4all le pregunte a ChatGPT que me cuente cual móvil existe a tal precio, con inmensa batería, pantalla amoled, etc.? Es casi seguro que el tráfico de visitas a las webs descenderá considerablemente.
Todo lo dicho vale para ChatGPT y las demás Inteligencias Artificiales que, en mi opinión, han de ser valoradas considerando muchos aspectos y han de ser tratadas con mucho cuidado. Suponen una concentración de fuentes e información que puede tener efectos muy perjudiciales como los mencionados y otros que, hoy por hoy, no podamos ni siquiera llegar a imaginar. 😎














