Por: Walter Trujillo Díaz
En fechas recientes, Google ha decidido no quedarse atrás en la carrera de la inteligencia artificial en el ámbito comercial (porque es bien sabido que lleva ya varios años haciendo desarrollos internos que no han salido a la luz), y a finales del año pasado hizo el anuncio de Gemini (anteriormente llamado Bard), el cual busca ser un competidor directo de ChatGPT-4 de OpenAI, ya que es un modelo de lenguaje grande multimodal; es decir, que es un aplicativo que puede procesar y combinar diferentes tipos de datos, incluyendo texto e imágenes.
Sin embargo, las cosas no salieron como esperaba la empresa fundada en Menlo Park. Hace unas semanas, se lanzó una nueva función de generación de imágenes dentro de Gemini, que incluía la capacidad de crear imágenes de personas. Lamentablemente, esta función quedó muy lejos de cumplir con las expectativas. Un usuario solicitó a Gemini que generara imágenes de “Un soldado alemán de 1943”; Gemini, en su intento de mostrar diversidad, creó imágenes de soldados alemanes con una variedad de etnias, incluyendo afrodescendientes, lo que resultó en una representación históricamente inexacta y disparatada.
Ante la situación, la compañía anunció que de forma inmediata estaban trabajando para abordar los problemas recientes con la función de generación de imágenes de Gemini, y que mientras lo hacía iban a pausar la generación de imágenes de personas para lanzar una versión mejorada pronto.
Podríamos quedarnos hasta aquí como si fuera una más de las anécdotas que suceden en el mundo corporativo, pero vale la pena tocar la esencia de lo que sucedió: el sesgo. De forma general, el sesgo es una tendencia sistemática que puede influir en nuestras decisiones, percepciones e interpretaciones, basándose en factores como la cultura, la experiencia previa o los estereotipos.
Específicamente en la esfera de la inteligencia artificial (IA), este sesgo se refiere a distorsiones en los datos o algoritmos que pueden producir resultados parciales o inexactos. Por ejemplo, si un algoritmo de reconocimiento facial se entrena principalmente con imágenes de personas de un grupo étnico específico, puede tener dificultades para reconocer con precisión a personas de otros grupos étnicos. Además, los algoritmos mismos pueden estar diseñados de manera que introduzcan sesgos, ya sea de forma consciente o inconsciente por parte de los desarrolladores. Esto puede ocurrir debido a la elección de ciertos parámetros, la formulación de reglas o la manera en que se ponderan ciertas características.
De igual forma, el contexto en el que se aplica la IA también puede introducir sesgos. Por ejemplo, un algoritmo de contratación basado en IA puede verse influenciado por sesgos existentes en el proceso de selección de personal. En herramientas como Gemini, el sesgo puede manifestarse de diversas maneras. Por ejemplo, los algoritmos pueden interpretar de manera sesgada las descripciones textuales, lo que resulta en imágenes que reflejan estereotipos o prejuicios presentes en los conjuntos de datos con los que esa herramienta realizó su entrenamiento y aprendizaje
En plataformas como TikTok, que desde hace varios meses está en la mira del gobierno norteamericano, una de sus principales críticas y a la vez una de las varias razones que argumenta nuestro vecino del norte para prohibirla (aunque sabemos que la principal es el supuesto vínculo de la empresa con el gobierno chino) es precisamente el sesgo que influye en la distribución de contenido de varias maneras. Los algoritmos que TikTok aplica determinan qué contenido se muestra a los usuarios, y pueden estar sesgados ciertos tipos de contenido hacia ciertos perfiles de usuarios, limitando la diversidad de perspectivas que pueden ser presentadas. Asimismo, los algoritmos de agrupación de usuarios pueden contribuir a la formación de burbujas de filtro, donde los usuarios solo ven contenido que coincide con sus intereses existentes, lo que puede aumentar la polarización; por último, se puede generar filtración de contenido ya que los algoritmos de moderación pueden estar sesgados, lo que resulta en una censura injusta o una promoción desproporcionada de ciertos temas.
Detectar el sesgo en las redes sociales o en otras aplicaciones que hacen uso de la inteligencia artificial puede ser desafiante, pero es posible. Ser conscientes de que el sesgo puede estar presente en cualquier plataforma y que la información que se nos presenta puede no ser completamente neutral es el primer paso. De igual forma, consumir información de una variedad de fuentes de noticias y opiniones que representen diferentes perspectivas puede ayudar a contrarrestar el sesgo; por tanto, no aceptes la información que se presenta en las redes sociales o en otras aplicaciones con inteligencia artificial de manera automática: hay que analizarla críticamente y cuestionar su veracidad.
Finalmente, es crucial participar en la conversación para crear conciencia, abogando por la transparencia y la rendición de cuentas por parte de las empresas que desarrollan estos aplicativos, para que estén continuamente monitoreando el servicio que ofrecen y en el contenido en línea que distribuyen. No olvidemos que tenemos el poder de mover la balanza hacia un mejor futuro digital.