Archivo de la etiqueta: AI

Cómo funciona el mundo para engañarnos

Estaba cotilleando en la Grokipedia, la Wikipedia de Elon Musk, y alucinando con el nivel de megalomanía que puede alcanzar este mundo. Muchos de sus artículos provienen directamente de Wikipedia, algunos incluso copiados casi palabra por palabra. La plataforma no permite editar las entradas; los usuarios registrados solo pueden sugerir cambios mediante un pop-up para reportar información errónea.

La crítica no se ha hecho esperar: Grokipedia ha sido descrita como promotora de perspectivas de derechas, teorías conspiratorias y, sobre todo, las opiniones de Elon Musk. También se cuestiona su precisión y sus sesgos, alimentados tanto por las alucinaciones de la IA como por el posible sesgo algorítmico que arrastra. Y, por supuesto, si consultamos la entrada de Grokipedia sobre la propia Wikipedia, descubrimos que la acusa de tener sesgos ideológicos sistémicos, especialmente una tendencia de leve a moderada hacia la izquierda.

Porque, al final, no hay nada como controlar la narrativa, escrita u oral, para convertirla en verdad.

Solemos preocuparnos por la desinformación generada por la inteligencia artificial como si fuera una propiedad emergente: algo accidental que ocurre cuando los modelos alucinan o mezclan datos poco fiables. Pero Grokipedia nos recuerda que la desinformación también puede ser perfectamente intencional. Puede ser programada, seleccionada y sistematizada de forma deliberada. El verdadero peligro de la IA no está en la caja negra. Está en quien la controla y decide qué podemos leer los demás de su interior.

Otro ejemplo, ya más centrado en redes sociales, son esos dulces abuelitos creados con IA que dan consejos de vida. Estos contenidos aprovechan la credibilidad y autoridad asociada a las personas mayores, y la ternura que nos inspiran, para viralizar mensajes sobre valores sociales o incluso política.

Al final, estamos entrando en una era donde la desinformación ya no necesita disfrazarse de error: puede presentarse con voz amable, con interfaz pulida o con la autoridad inventada de una enciclopedia alternativa. Y, si no estamos atentos, acabaremos repitiendo como narrativas propias, las que alguien decidió por nosotros. Por eso, más que temer lo que la IA puede llegar a hacer, deberíamos cuestionar quién la dirige, con qué intereses y a quién sirve. Porque la tecnología no piensa por sí misma… pero sí puede conseguir que dejemos de pensar nosotros.

Cómo funciona el mundo para engañarnos

Deja un comentario

Archivado bajo IA

Estamos de cumpleaños #ChatGPT

La semana pasada celebramos el cumpleaños de ChatGPT, el 30 de noviembre cumplió un añito desde que se lanzó por primera vez al público el chatbot de OpenAI. En España, ya cuenta con más de cuatro millones de usuarios activos y en el mundo a los 2 meses ya alcanzaba los 100 millones, el crecimiento más exponencial del universo de las apps (llegar a esta misma cifra, le costó a Facebook muchos años).

En apenas doce meses la aplicación ha evolucionado muy rápido y mejorado su capacidad de respuestas, aunque aún plantea dudas en materia de privacidad y propiedad intelectual.

No solamente ha sido el año de conversaciones con ChatGPT sobre recetas, viajes, planes de marketing o código, también en este año hemos generado imágenes con los programas de generación de imágenes con IA, como Dall-E o Midjourney.

Y estamos en ese punto de que cuando vemos una imagen que tiene algo raro, pensamos que está hecha con inteligencia artificial. No siempre es así, pero es normal que dudemos porque hay imágenes reales que llevan IA incorporada de otra manera: las que se obtienen con el móvil si nuestra cámara usa esta tecnología y las que nos devuelven los filtros de redes sociales, que a veces vienen activados por defecto y que además tienen sesgos que pueden discriminar, y generar trastornos, como la dismorfia del selfie, que distorsiona la imagen cómo nos percibimos y pueden llegar a afectar a nuestra salud mental.

Y siguiendo con los cumpleaños, seguro que ya tienes tu wrapped de Spotify de 2023, si no lo tienes ya vas tarde!

Wrapped Spotify Minutos

 

Deja un comentario

Archivado bajo IA, social media

AIinfluencers

Hoy quería hablar de la AIinfluencer, AItana jaja, menuda inventiva tiene alguna gente para esto del naming... Aitana trabaja para una agencia de modelos virtuales de Barcelona, The Clueless. No somos solo una agencia de modelos de IA; somos visionarios con la misión de redefinir el mundo de los influencers”; dicen ellos.

Aitana se define como una mujer fuerte y decidida, independiente en sus acciones y generosa en su disposición a ayudar a los demás”.

Ella no es la única modela de la agencia; Maia Lima también trabaja para ellos, a la que la agencia define comouna joven argentina que se caracteriza por su timidez y pureza, una persona inocente y solitaria, que disfruta de su independencia sin ataduras afectivas”. 

Tanto Aitana con sus 100.000 seguidores conseguidos en 4 meses, como Maia que acaba de empezar hace 8 semanas y tiene todavía solo 3.3K seguidores, puede hacer promoción de productos y ganar unos 4000 euros al mes.

Yo iba a recomendar un master que ofrece una universidad de Irlanda para estudiar un grado de influencer, pero a lo mejor, ya no tiene mucho sentido…

modelos-ia-the-clueless

Deja un comentario

Archivado bajo social media

Perdida entre conceptos de cyberseguridad

Estaba leyendo un artículo sobre la regulación de la IA en Estados Unidos versus Europa, donde destacaba el carácter voluntarista americano versus el enfoque normativo europeo y me he encontrado con el siguiente párrafo que me ha dejado con los ojos como platos:

“Deberíamos implementar espacios de prueba (sandboxes) donde los productos puedan ser evaluados y sometidos a observación independiente. Grupos de expertos independientes podrían desafiar los productos creados por las empresas para identificar vulnerabilidades y posibles usos indebidos (redteaming). “

Nuevos conceptos para mí, entiendo que no solo unidos no solo a la IA sino a cualquier proceso de desarrollo. Y este camino de conceptos, me ha llevado a otros que también desconocía como son Blue team o Groupthink. Me temo que la cyberseguridad no es lo mío. Esta concatenación a su vez me ha llevado a cursos gratis sobre el temaYa sé que hoy me tocaba hablar de lista de propósitos, y tengo que reconocer que este tema no se encuentra de ninguna manera entre ellos…

DALL·E 2023-09-17 18.28.41 - Perdida entre conceptos de cyberseguridad

Deja un comentario

Archivado bajo otros

The first influencer transformed in AI #TuNoviaVirtual

La imaginación de la gente llega hasta sitios insospechados, que no dejan de sorprenderme. La creadora / influencer Caryn Marjorie, de 23 años, entrenó a un chatbot con su voz gracias a sus miles de horas de sus vídeos. “Tras 2000 horas de entrenamiento ahora soy una extensión de la conciencia de Caryn”. Lo ha llamado “Caryn AI” y además tiene un modelo de negocio: el tiempo de charla con la alter ego virtual de la influencer cuesta un dólar por minuto. 

Caryn tiene una gran base de seguidores en Snapchat (1,8 millones). Ha conseguido en solo una semana, más de 1000 novios ¿suscriptores? (ella los llama “novios”), que se registraron para interactuar con Caryn IA. Hoy en día afirma que ya va por los 15.000 novios. En esta primera semana habría facturado más de 100.000 dólares. Evidentemente como todos los simuladores de voz de AI, la conversación puede llevarse a casi cualquier terreno: si el “novio” empieza a hablar de sexo, lo normal en una conversación a golpe de dólar, seguirá ese tono y temática que se ha marcado.

Un OnlyFans de voz?

TuNoviaVirtual

(Esta semana tampoco hay imagen generada por IA, sería un poco too much)

 

Deja un comentario

Archivado bajo marketing, social media

Google poniéndose las pilas en IA

El post de hoy va de cómo Google quiere cambiar el universo de las búsquedas con la inteligencia artificial. 

– En primer lugar tenemos la nueva interfaz SGE (Experiencia generativa de búsqueda) y aquí ya no vemos los clásicos 10 enlaces azules, donde lo que contaba eran el SEM y el SEO, sino que será una experiencia más cercana a las búsquedas simples actuales donde Google te ofrece respuestas sin hablar de las fuentes, lo cual me parece peligrosísimo en términos de veracidad y no manipulación del personal. En el evento de Google enseñaron un ejemplo de cómo se vería este SGE, y en un móvil los enlaces azules aparecen en la 2-3 pantalla, mucho scroll y mucho esfuerzo para llegar a ellos.

1366_2000

(Hoy no he usado OpenAI para generar la imagen)

El segundo tema es Google Bard, disponible en 3 idiomas en 180 países en el mundo, entre los que no se encuentra España, ni la Unión Europea, por temas de RGPD. “Google explica que Bard es capaz de tomar la información de Internet para ofrecer respuestas actuales y de alta calidad. La idea es que el usuario pueda obtener una respuesta completa y general de cualquier concepto, impulsando las búsquedas en internet a través del lenguaje natural.” Aunque puede llegar a la actualidad en sus respuestas (Chat GPT solo llega hasta 2021), sigue sin saberse de dónde saca la información, o sea, el mismo problema de fuentes, que comentábamos con SGE.

Deja un comentario

Archivado bajo otros

Guerra entre Google y Microsoft

¿De qué más se puede hablar sino de IA y del gran fiasco de la presentación de Bard de Google? Bard es la apuesta de Google para competir contra ChatGPT de OpenAI y respaldado por Microsoft y su buscador Bing. Una compañía aprovecha el momento y la otra va como un pollo sin cabeza. Resultado: las acciones de Google caen un 7% del valor, o sea, unos 100.000 millones de dólares. ¿Y ahora cuántos despidos más?

Y según vamos probando las distintas herramientas se ven riesgos de errores, manipulaciones o resultados sesgados.  Sí es verdad que los modelos ensamblan colecciones de documentos de una gran base de datos en función de una pretendida relevancia, y re-redactarlos para parecer hecho por un humano. Impresionante, sí, pero eso es todo. ¿Dónde está el pensamiento crítico, las fuentes y el criterio? en definitiva la curación de contenidos. Uhmmm me temo que hablando de más de un tema, hemos llegado a este mismo sitio.

Se dan los graciosos que se han dedicado a hackear a ChatGPT para hacerle insultar, hablar soezmente o incitando a la violencia, en definitiva en contra de la política de contenidos. Hoy cambiaré mi habitual imagen AI por la del Diario Vasco.

6d59ad8b-9100-4734-ac7e-10837880f447_16-9-discover-aspect-ratio_default_0

Deja un comentario

Archivado bajo otros

¿Qué te parece esta imagen?

Ya lo comenté allá por mayo en otro post que me había apuntado a la lista de espera para poder usar DALL-E, pero bueno, tampoco me han avisado de que ya está abierto a todo el mundo, así que finalmente me he dado de alta tras leer la noticia en el Washington Post. Por si no lo recordáis sirve para generar imágenes a partir de un texto.

Evidentemente ya le han encontrado “problemillas” como posibles generadores de estereotipos raciales y de género, fake news 

Tengo 50 “intentos” gratis el primer mes y luego el número de imágenes mensuales desciende a 15. Supongo que por aquí vendrá su modelo de monetarización; aunque lo veo un poco sin sentido, ya que aquí la cantidad sí importa. A partir de ahora todas las entradas en mi blog serán generadas desde aquí, por ejemplo la actual, viene generada a partir de esta definición: new way to create images.

DALL-E imagenes

Deja un comentario

Archivado bajo arte, big data

De dulce adolescente a xenófoba y racista en 24 horas

Justo antes de estos días de vacaciones tuvo lugar el nacimiento y muerte de la adolescente Tay, un botchat o softrware de inteligencia artificial que Microsoft había creado para atraer y entretener a adolescentes mediante conversaciones casuales en las redes sociales como Facebook, Instagram, Snapchat o Twitter. Su objetivo era intercambiar mensajes en línea, aprender de las personas e incrementar su inteligencia. Un proceso similar a lo que ocurre con Siri.

Sin embargo, 24 horas después de su lanzamiento, la compañía suspendió el programa porque Tay enviaba mensajes racistas y xenófobos. Envió mensajes que iban desde el apoyo a los nazis, hasta comentarios e insultos hacia las mujeres y los negros. Su información de perfil hubiera podido adaptarse a @tayandyou: evil Hitler-loving, incestual sex-promoting teen girl robot. La compañía señaló que los mensajes mal intencionados se generaron debido una campaña coordinada por algunos usuarios para influir en el proceso de aprendizaje de ‘Tay’, y de esta manera lograr que respondiera de manera inadecuada.

TayAI

No es el primer experimento de Microsoft en este sentido, ya habían lanzado Xiaoice en las redes chinas cuya función era dar consejos amorosos a los solitarios hombres chinos. Sin palabras….

El último menaje de Tay fue: «Hasta pronto humanos, necesito dormir, muchas conversaciones por hoy». Y así fue, ¡buenas noches Cenicienta!

 

Deja un comentario

Archivado bajo social media