ChatGPT y otros modelos generativos con inteligencia artificial se han vendido como la herramienta definitiva de productividad, la panacea para escribir artículos por ti, correos electrónicos, tus redes sociales, resúmenes de largos y complejos textos… estos meses hemos tenido la oportunidad de verlo y comprobarlo por nosotros mismos.
Pero las empresas se están blindando por temas de confidencialidad, y prohibiendo su uso a sus trabajadores. ¿Y esto por qué? Para ejemplo el de Samsung, que en un plazo de 20 días, y en tres ocasiones, los trabajadores de Samsung Semiconductor provocaron una fuga de sus datos utilizando ChatGPT. Porque está herramienta que parece tan inofensiva, se guarda la información y la almacena en la nube, y parte de su personal tiene acceso a ella para tareas como afinar sus modelos, proporcionar soporte, detectar abuso y cumplir con las obligaciones legales. Y también nuestros chats se almacenen para usarlos como entrenamiento. Atención: existe la opción de deshabilitar ambos usos, pero aún así quedan otras razones para seguir temiendo el uso de la información: brechas y ataques informáticos, comercialización de datos…
Además si te dedicas a temas legales, ya sabes que tienes que tener cuidado, porque se inventa la jurisprudencia con citas y referencias falsas; y que incluso si vuelves a verificar corrobora la falsa información, como le pasó al abogado neoyorkino Schwarz en el caso de Mata vs Avianca. Y ahora el defensor debe ser defendido de la IA!