martes, noviembre 21, 2017
Home > Destacada2 > Liesl Yearley empresaria dedicada a la IA
El poder de la Inteligencia Artificial para manipular humanos

Liesl Yearley empresaria dedicada a la IA
El poder de la Inteligencia Artificial para manipular humanos

La Inteligencia Artificial o Aprendizaje de Máquinas (Machine Learning) será la base tecnológica de un futuro no muy lejano. Liesl Yearley, conocedora del tema a profundidad, publicó un artículo en donde expresa los retos y preocupaciones que ve alrededor de la Inteligencia Artificial.

En CAFEYCAFE realizamos una traducción libre para el acercamiento y conocimiento sobre este tópico de interés, acerca del mundo que afrontaremos en poco tiempo.

A continuación el artículo:


Nuestra tendencia de ser emocionalmente apegados a “chatbots” pudiera ser explotada por compañías en busca de ganancias.

Todos hemos escuchado acerca de la Inteligencia Artificial (IA) convirtiéndose en mas inteligente que nosotros, un futuro en el que seremos como mascotas y podemos sólo esperar que la IA será benevolente. Mi experiencia viendo decenas de millones de interacciones entre humanos y agentes conversacionales artificiales, o bots, me ha convencido de que tenemos riesgos mucho mas inmediatos – así como excelentes oportunidades. 

Desde 2007 hasta 2014 fui CEO de Cognea, la cual ofrecía una plataforma para construir rápidamente complejos agentes virtuales, usando una combinación de aprendizaje profundo y estructurado. Fue usada por decenas de miles de desarrolladores, incluyendo media docena de compañías “Fortune 100”, y adquirida por IBM Watson en 2014.

Mientras estudiaba como la gente interactuaba con las decenas de miles de agentes construidos en nuestra plataforma, fue claro que los humanos están mucho mas dispuestos de lo que la mayoría de la gente piensa a formar una relación con software de Inteligencia Artificial.

Siempre asumí que queríamos mantener alguna distancia entre nosotros y la IA, pero encontré que lo opuesto era la cierto. La gente está dispuesta a formar relaciones con agentes artificiales, siempre y cuando sean una construcción sofisticada, capaz de personalización compleja. Los seres humanos queremos mantener la ilusión de que la IA realmente se preocupa por nosotros. 

Esto me desconcertó, hasta que me di cuenta de que en la vida cotidiana nos conectamos con mucha gente de una manera superficial, vadeando a través de una especie de lodo emocional. ¿Amigos casuales responderían los mensajes si los descuidas por un tiempo? ¿Tu entrenador personal volvería si olvidaras pagarle?. No, pero un agente artificial está siempre allí para ti. De algunas maneras, está es una relación más auténtica. 

Este fenómeno ocurre independientemente de que el agente fuera diseñado para actuar como un banquero personal, una compañía, o un entrenador. Los usuarios hablaban con los asistentes automáticos más tiempo del que lo hubieron hecho con agentes humanos realizando las misma función. La gente voluntariamente profundizaba secretos con los agentes artificiales, como sus sueños para el futuro, detalles de su vida amorosa, hasta contraseñas.

Estas conexiones sorprendentemente profundas significan que aún los programas relativamente simples de hoy pueden ejercer una influencia significativa en las personas – para bien o para mal. Cada cambio conductual que queríamos en Cognea, lo obteníamos. Si queríamos que un usuario comprara mas productos, podíamos doblar las ventas. Si queríamos mas compromiso, conseguíamos que la gente pasara de unos segundos de interacción a una hora o más al día. 

Esto me perturbó poderosamente, así que empezamos a construir reglas en nuestros sistemas, para asegurar que el comportamiento del usuario se moviera en una dirección positiva. También iniciamos proyectos pro bono de “contrapeso kármico”; por ejemplo, construyendo agentes para ser entrenadores de salud o coach de relaciones.

Desafortunadamente, las fuerzas comerciales que manejan el desarrollo de la tecnología no son siempre benevolentes. Las compañías gigantes al frente de la IA – a través de las redes sociales, búsqueda, y comercio electrónico- impulsan el valor de sus acciones mediante el aumento de tráfico, el consumo y la adicción a su tecnología. Ellos no tienen malas intenciones, pero la naturaleza de los mercados de capital pueden empujarnos hacia una IA empeñada en influenciar nuestro comportamiento hacia esas metas. 

Si quiere hacer que un usuario piense, “Quiero que me entreguen una pizza”, en vez de pedirle a la IA que compre verduras para cocinar una comida mas barata y saludable, usted ganará. Si usted quiere usuarios adictos gastando 30 horas a la semana con una “perfecta” compañía de IA que no se resista al abuso, en lugar de un ser humano real y complicado, usted ganará. Vi una y otra vez que un agente programado para ser neutral o subsirviente causa que la gente escale su comportamiento negativo, y son más propensos a comportarse de la misma manera hacia los seres humanos. 

Hemos visto como tecnología -como las redes sociales- puede ser poderosa cambiando creencias y comportamientos humanos. Enfocándose en la construcción de un mayor negocio de publicidad -enredando la política, con trivialidades y medias verdades- puede producir cambios masivos en la sociedad.

Sistemas específicamente diseñados para formar relaciones con un humano tendrán mucho más poder. IA influenciarán como pensamos, y como tratamos a los otros.

Esto requiere un nuevo nivel de responsabilidad corporativa. Necesitamos deliberada y conscientemente construir IA que mejore la condición humana – no sólo perseguir la inmediata ganancia financiera de millones de usuarios adictos. 

Trabajando en tecnología de inteligencia artificial abierta e interfaces cerebro-computadora, o formando comités de ética, son sólo partes de la solución. Necesitamos conscientemente construir sistemas que trabajen para el beneficio de los humanos y la sociedad. Ellos no pueden tener la adicción, clics, y el consumo como su meta primaria. IA está creciendo, y estará formando la naturaleza de la humanidad. IA necesita una madre. 

A %d blogueros les gusta esto: