Los chatbots de IA son una pérdida de tiempo y recursos

Recientemente ha habido una explosión de herramientas de Inteligencia Artificial Generativa (IA) ampliamente accesibles por parte de los principales actores del espacio tecnológico. Parece que cada plataforma siente la necesidad de tener algún tipo de chatbot impulsado por IA para asegurar a los inversores que están actualizados sobre las últimas tendencias tecnológicas. Nosotros, como consumidores, tenemos la seguridad de que el futuro de la IA ya está aquí, pero ¿qué tan práctica es realmente esta tecnología?

ChatGPT está a la vanguardia de los chatbots con tecnología de inteligencia artificial. ChatGPT, que se lanzó a finales de 2022, se utiliza a menudo para ayudar con tareas sencillas como escribir correos electrónicos o revisar la gramática. Normalmente, cuando el usuario la controla, la IA puede producir de forma fiable un trabajo aceptable.

La tecnología funciona tomando enormes cantidades de datos para imitar patrones naturales de texto y voz. Es un sistema que es impresionante al principio, pero también tiene fallas profundas que lo hacen extremadamente poco confiable. Cuando se les desafían con indicaciones más complejas, estos chatbots de IA son esencialmente inútiles.

Desconfianza, robos y alucinaciones

El impacto más inmediato de estos chatbots probablemente se sintió más en las escuelas. Los profesores ahora tienen que estar muy atentos a las tareas que pueden haber sido escritas por IA. Claramente, usar un chatbot de IA para las tareas escolares es hacer trampa, y los maestros deben ser conscientes de que los estudiantes pueden usar IA para hacer su trabajo, pero no hay una manera fácil de saberlo con seguridad.

Algunos profesores utilizan la herramienta de detección de IA integrada en Turnitin.com, pero esta opción no es muy confiable. No es raro que se señale a un estudiante inocente por haber utilizado IA. De hecho, después de introducir las tareas de los estudiantes en ChatGPT y preguntar al chatbot si el trabajo fue escrito por IA, un profesor universitario casi suspendió a varios estudiantes. El chatbot arrojó un falso positivo y los estudiantes tuvieron que declarar su inocencia para poder recibir sus diplomas. La IA crea una situación perdedora tanto para los profesores como para los estudiantes: ningún estudiante quiere ser acusado de utilizar la IA y ningún profesor quiere calificar el trabajo de una IA.

Este no es el único problema ético cuando se trata de estudiantes que abusan de los chatbots: la IA también tiene un problema de plagio. Debido a la forma cuestionable en que la empresa matriz de ChatGPT, OpenAI, busca datos en Internet, el chatbot frecuentemente entrega respuestas que contienen noticias y datos no acreditados. De hecho, hasta el 60% de las respuestas de ChatGPT contienen algún tipo de plagio. Peor aún, la IA también atribuirá información falsa a fuentes que de otro modo tendrían buena reputación. Esto ha dado lugar a demandas de varios medios, mientras que otros han llegado a acuerdos de licencia con OpenAI.

Cuando la IA no es capaz de robar información, llena los vacíos. Se sabe que la IA que impulsa ChatGPT presenta a los usuarios información descaradamente falsa presentada como un hecho, un fenómeno conocido como alucinaciones. Las alucinaciones no son un problema exclusivo de ChatGPT: los chatbots AI de Google, Meta y Microsoft presentan a los usuarios información descaradamente falsa en una tasa de hasta el 27%.

El problema es que se hace creer a los usuarios que los chatbots realmente saben cosas. En realidad, la IA no es capaz de comprender realmente la información que recibe; está programada para que parezca que lo hace. En realidad, cuando le dan un aviso a un chatbot como ChatGPT, los usuarios reciben una mezcla grosera de contenido robado e información falsa. Básicamente, la IA engaña al usuario e incluso los expertos no saben realmente cómo solucionar este problema. En realidad, la inteligencia artificial no es digna de confianza y confiar demasiado en ella puede ser peligroso.

Por ejemplo, ha habido múltiples casos de profesionales del derecho que han hecho mal uso de la IA. Los abogados que creen que un chatbot es capaz de redactar de manera confiable un escrito legal y citar casos lo ven como un atajo. El resultado es que se citan casos falsos en los tribunales, lo que complica aún más el ya dolorosamente roto sistema de justicia estadounidense.

Futuro alimentado a la fuerza

A pesar de las fallas de la tecnología, parece que todos los actores importantes en el espacio tecnológico están convencidos de que los usuarios necesitan desesperadamente funciones impulsadas por la IA. Al utilizar el motor de búsqueda, Google ahora presenta a los usuarios resúmenes de IA (aunque seguramente incluirán letra pequeña para recordarles que la integración de la IA es “experimental”). Cuando navega a la barra de búsqueda en Facebook, Instagram o WhatsApp, ahora se solicita a los usuarios que interactúen con una función de búsqueda Meta AI inútil.

Quizás el peor infractor en esta ola de funciones inútiles de IA provenga de X, antes conocido como Twitter. El chatbot, llamado Grok, se implementó originalmente como una característica exclusiva para los suscriptores de X Premium. El director ejecutivo de la plataforma, Elon Musk, prometió que Grok sería el primer chatbot de IA “anti-despertar”, una afirmación que luego resultaría contraproducente.

Desde entonces, la plataforma ha intentado integrar Grok haciendo que la IA genere titulares basados ​​en temas de actualidad. Esta característica resultó en un titular sobre el atleta de la NBA, Klay Thomspon, que se embarcó en una “juerga de vandalismo de ladrillos extraños” en la pestaña de tendencias del sitio. La IA había malinterpretado de manera divertida las publicaciones sobre el rendimiento aproximado de tiros de 0 a 10 del jugador. Lo que es más preocupante, Grok de X fue fácilmente influenciado por una campaña de desinformación dirigida. Los usuarios publicaron en masa que Irán estaba disparando misiles hacia Israel, lo que llevó a la IA a informar esto como un hecho.

Una vez más, la excesiva dependencia de esta tecnología es peligrosa. Antes de la adquisición de Elon Musk, Twitter tenía un equipo de curación para explicar los temas que aparecían en la pestaña de tendencias y combatir la desinformación. Musk procedió a despedir a este equipo junto con aproximadamente la mitad de la fuerza laboral del sitio. La IA no es capaz de realizar estos trabajos, independientemente de cómo se sienta Musk.

Un desperdicio de recursos

La IA también plantea otra amenaza: el impacto en el medio ambiente. Recientemente Meta reveló que entrenar su modelo LLaMA AI produjo un total de alrededor de 539 toneladas de dióxido de carbono. Además de la enorme cantidad de energía que se necesita para entrenar la IA, también se necesitan enormes cantidades de energía para mantenerla en funcionamiento. A pesar de la promesa de Microsoft de convertirse en carbono negativo para 2030, la compañía en realidad experimentó un aumento estimado del 30% en las emisiones de carbono. Este aumento está directamente relacionado con la prioridad de la empresa hacia la IA. Además, los centros de datos que impulsan la IA también requieren miles de millones de galones de agua para enfriarse.

¿Por qué entonces, en tiempos de empeoramiento del cambio climático, estamos desperdiciando recursos en esta tecnología poco desarrollada y poco práctica? Algunos pueden afirmar que la IA en realidad puede ayudar a reducir las emisiones de carbono, pero parece que el daño que se necesitará para llegar a este punto supera el potencial positivo.

Conclusión

Cuesta creer las promesas de que la IA realmente puede beneficiar a la humanidad. Aunque puede haber algunas industrias que puedan aprovechar eficazmente la tecnología, es poco probable que quienes formamos parte de la población general obtengamos algún beneficio. Aparte de unas pocas horas de entretenimiento, ¿para qué usaremos ChatGPT o Meta AI? Parece que lo mejor que podemos hacer es demostrar un desinterés general en la tecnología hasta que se desvanezca en la reciente línea de tendencias tecnológicas desaparecidas, junto con las criptomonedas y las NFT.


El Tribuno del Pueblo le trae artículos escritos por individuos y organizaciones, junto con nuestros propios reportajes. Los artículos firmados reflejan los puntos de vista de las y los autores. Los artículos sin firmar reflejan los puntos de vista del consejo editorial. Por favor, dé crédito a la fuente al compartir: tribunodelpueblo.org. Todos somos voluntarios, sin personal remunerado. Haga una donación en http: //tribunodelpueblo.org/ para seguir ofreciéndoles las voces del movimiento porque ningún ser humano es ilegal.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

ARTÍCULOS RELACIONADOS

SUSCRÍBETE

INFÓRMATE Y TOMA ACCIÓN

Nuestra voz es única, nuestra perspectiva sin filtrar. Únase a nuestro boletín y manténgase actualizado sobre nuestro reportaje original y periodismo para la gente. Entregado a usted.

VISITE NUESTRO SITIO HERMANO

ÚLTIMOS ARTÍCULOS