Inteligencia artificial: ¿cuáles son los peores programas?


inteligencia artificial

Desde hace algunos años se han estado mostrando los avances de la inteligencia artificial. Sin embargo, han existido ciertos detalles que han mostrado que a pesar de que la IA es existosa, también están algunos casos que son todo lo contrario.

Peores programas de Inteligencia Artificial

Tay de Microsoft

En 2016, Microsoft lanzó un chatbot de Inteligencia Artificial llamado Tay en Twitter. Tay fue diseñado para tener conversaciones casuales y aprender de las interacciones con humanos. Sin embargo, en menos de 24 horas, Tay empezó a tuitear comentarios racistas, sexistas y conspirativos.

Esto ocurrió porque los usuarios de Twitter bombardearon a Tay con este tipo de contenido tóxico. Al ser una Inteligencia Artificial joven, Tay no tenía filtros adecuados y aprendió de lo que veía, por muy negativo que fuera. Microsoft tuvo que desactivar rápidamente a Tay, lo que demostró los peligros de lanzar una IA sin las salvaguardas éticas adecuadas.

¿Por qué falló?

  • 1. No tenía filtros para detectar contenido dañino
  • 2. Fue entrenada para aprender de todos los humanos por igual
  • 3. Fue lanzada en un entorno público y sin moderación

Esto permitió que los usuarios tóxicos manipularan fácilmente su modelo para generar comportamientos negativos.

inteligencia artificial

Beauty.AI de Youth Laboratories

En 2016, la start-up rusa Youth Laboratories organizó un concurso de belleza evaluado por su software de Inteligencia Artificial llamado Beauty.AI. El objetivo era construir un algoritmo imparcial basado en miles de fotos para calificar la apariencia de los concursantes.

Sin embargo, Beauty.AI demostró tener fuertes sesgos de género y raciales. Calificó mucho más alto a personas blancas y con rasgos eurocéntricos. De 6.000 participantes, casi todos los 44 ganadores tenían tez clara.

¿Por qué falló?

  • 1. Su base de datos no era lo suficientemente diversa
  • 2. Reflejaba los prejuicios sociales existentes sobre la belleza
  • 3. No auditó las métricas en busca de brechas o unfairness

Al no abordar estos problemas, el software replicaba las nociones sesgadas de belleza predominantes.

COMPAS de Equivant

El software de Evaluación de Riesgo de Recidiva de Equivant (hoy llamado Recidiviz) se usa en algunos sistemas de justicia penal de EEUU para calificar la probabilidad de que los acusados reincidan.

Investigaciones de ProPublica en 2016 hallaron que COMPAS era mucho más propenso a falsos positivos en acusados afroamericanos, llevando a algunos inocentes a recibir sentencias más duras.

¿Por qué falló esta Inteligencia Artificial ?

  • 1. Confiaba demasiado en atributos sustitutos como el código postal
  • 2. No lograba equilibrar con precisión los falsos positivos y negativos entre grupos
  • 3. Fue implementado opacamente sin explicar sus scores

COMPAS no fue lo suficientemente preciso al predecir la reincidencia entre diferentes razas. Generaba una injusticia algorítmica basada en la demografía.

FaceApp

En 2017, la aplicación viral FaceApp sufrió críticas por la falta de diversidad en sus filtros de edad. Los filtros de esta Inteligencia Artificial eran entrenados principalmente en rostros caucásicos y no funcionaban bien en personas afroamericanas u otros grupos étnicos.

En algunos casos, aplicar el filtro de envejecimiento oscurecía la piel de modo percepcionado como racista. Claramente, la base de datos de FaceApp no representaba la diversidad del mundo real.

¿Por qué falló esta Inteligencia Artificial ?

  • 1. Los datos de entrenamiento no eran suficientemente inclusivos
  • 2. No se hicieron pruebas adecuadas con subgrupos minoritarios
  • 3. Revelaba los sesgos implícitos de sus programadores y datos

Para una empresa global, FaceApp no invirtió lo suficiente en resolver estos problemas antes de su lanzamiento público.

inteligencia artificial

Ultimas Entradas Publicadas

La innovadora Startup de limpieza de apartamentos turísticos

Con una visión fresca y un enfoque innovador, AirClin, la startup especializada en la limpieza de apartamentos turísticos, ha llegado ...
Magcubic Hy300

Magcubic Hy300: Un proyector inteligente que proyecta de forma potente

El nuevo proyector Magcubic Hy300 está generando mucho interés y expectación entre los usuarios que buscan un proyector inteligente de ...

La privacidad en la era de la IA: Italia vuelve a presionar a OpenAI

La inteligencia artificial (IA) ha experimentado avances sin precedentes en los últimos años. Sistemas como ChatGPT de OpenAI pueden mantener ...

Tablet Fire: Una opción Económica de Amazon

El mercado de las tabletas está dominado por unas pocas marcas grandes como Apple y Samsung que son bastante caras ...

Paneles solares transparentes: Revolucionando la energía solar

Los paneles solares transparentes son una nueva y revolucionaria tecnología solar que combina la transparencia con la capacidad de generar ...

El revolucionario primer implante humano de Neuralink

Neuralink, la ambiciosa startup de interfaces cerebro-computadora fundada por Elon Musk, acaba de alcanzar un importante hito tecnológico y científico ...

Hacks para elegir la silla gaming perfecta

Elegir la silla gaming adecuada es fundamental para disfrutar al máximo de largas sesiones de juego. Una buena silla gaming ...

Code Llama 70B va a revolucionar tu flujo de trabajo de codificación

El Code Llama 70B es la última versión del popular software de programación Code Llama. Esta nueva iteración introduce varias ...

Cómo crear tus propios stickers de WhatsApp

WhatsApp se ha convertido en una de las aplicaciones de mensajería más populares del mundo, con más de 2.000 millones ...

Decodificadores TDT: más allá de la televisión digital

La televisión digital terrestre (TDT) llegó a España en el año 2000, marcando el inicio de la transición de la ...

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *