El científico de datos Ricardo Baeza-Yates, en Barcelona.

El científico de datos Ricardo Baeza-Yates, en Barcelona.

Tecnológicas

La ‘industria de la intención’ quiere ir más allá de la publicidad

El reconocido científico Ricardo Baeza-Yates conversa con INNOVADORES sobre los desafíos de las tecnologías que son capaces de anticipar los deseos y las acciones. Señala: "No es ético penalizar a alguien por sus intenciones"

31 julio, 2019 07:00

Ricardo Baeza-Yates compagina sus investigaciones en ciencia de datos e inteligencia artificial con la dirección tecnológica de la empresa estadounidense NTENT. En su sede de Barcelona, atiende a INNOVADORES para hablar de ciencia, humanismo y empresa. Allí, su empresa avanza, entre otras cosas, en anticipar las preguntas humanas gracias a las tecnologías guiadas por la ‘intención’

El objetivo es proporcionar "un mejor servicio a las personas" a través de la búsqueda semántica. Se trata de ofrecer menos resultados, pero acertar con la respuesta. Cantidad no es sinónimo de calidad. Un ejemplo: "Cuando buscas cuál es la capital de Burkina Faso, has de cruzar los dedos para que Uagadugú aparezca en la página que encontraste. Porque podrían aparecer otras, por ejemplo, la de alguien que está haciendo la misma pregunta que tú y no la respuesta. Es mucho mejor decirle al usuario la respuesta única, pero para eso ha de ocurrir que debo haber entendido lo que tratas de buscar".  

Baeza-Yates es optimista con el futuro de esta nueva ‘industria’ tecnológica basada en la ‘intención’. "Ya existe y se llama publicidad en la web. Hay muchas compañías que se especializan en entender qué quiere hacer el usuario y mostrare la publicidad adecuada", comenta. "Esto ocurre en forma directa y también indirecta, por ejemplo, con el retargetting, donde se sigue al usuario mostrándole en el futuro publicidad asociada a lo que quería hacer en el pasado".

El científico cree que es posible que esta práctica se extienda a otras áreas, de hecho, se está explorando en la prevención de suicidios ("una intención que puede estar incluso oculta") o en la detección de depresión usando datos de las redes sociales. "Seguro que, en muchas otras áreas, las empresas están dispuestas a contactar personas con intenciones relacionadas a ellas".

Otra aplicación posible de las tecnologías de detección de la intención es la predicción de un delito en un área geográfica concreta. "Los casos de posible aplicación al ámbito de la Justicia son muy tentadores para las autoridades porque te permiten optimizar gastos. Si hay un software que te da la respuesta, no necesitas a una persona a la que tendrías que pagarle. Decidir si das a alguien una fianza o la libertad condicional", comenta. "Yo creo que esa es la zona ‘gris’ del tema", opina. "En los casos donde hay personas afectadas, lo que dice la máquina hay que tomarlo solamente como una recomendación y debe haber una persona que, al final, se responsabilice de la decisión", argumenta.

Datos y realidad

El caso extremo sería que el algoritmo asegurase que alguien va a cometer un delito. "No es ético penalizar a alguien por sus intenciones. Yo creo que eso incluso no debería ocurrir de forma legal", afirma. "Tal vez puedo pedir protección si hay amenaza de muerte, pero mientas no lo haga, no puedo castigarle. Ahí va a haber trabas sociales que lamentablemente son como ocultas, porque la gente que usa estos sistemas lo hace ocultándolo", añade.

El motor del trabajo de Baeza-Yates son los datos. Y advierte: no siempre proporcionan una expresión directa de la realidad. "Dependiendo de qué datos tengamos, podrían contener sesgos", matiza. Recuerda una investigación reciente en la que analizó usando Twitter el proceso completo de la nueva ley sobre el aborto en Chile. "Queríamos ver era si los datos de la red social reflejaban la realidad". ¿Conclusión? Los resultados no cuadraban, "en parte porque había más hombres que mujeres en la discusión, más conservadores que liberales y también gente muy joven". "Extrapolar es muy peligroso", alerta. 

Este problema se refleja igualmente en las empresas. ¿Cómo saber qué datos le conviene conservar y cuáles olvidar? "Datos e información no son lo mismo", afirma. "Hay muchos datos que no sirven porque son redundantes". El investigador recomienda eliminar ese grupo que "genera ruido" y aquellos que solo sirven para resolver un problema puntual. Ahí entra la ciencia de datos, una disciplina "muy nueva" que, a su juicio, tiene fecha de caducidad: "Durará hasta que haya máquinas lo suficientemente inteligentes como para hacerlo mejor que las personas". 

Ética y tecnología

Las investigaciones de Baeza-Yates analizan fenómenos sociales en la web. Por ejemplo, las fake news. "Propagar información falsa es algo humano y ha existido siempre", arranca. "Lo que hacen las plataformas en internet es amplificar tanto lo bueno como lo malo", añade. "Amplificar la polarización, el racismo, el amor, la desigualdad... todo. Para mí, la web es como un espejo de la humanidad, pero deformado. Te ves más grande y te deforma todo, lo bonito y lo feo".

Ahí entran en juego los dilemas éticos de la tecnología. "Es algo muy importante", destaca. Para Baeza-Yates, la ética debe estar codificada desde el comienzo del diseño de cualquier producto que use inteligencia artificial. "Lo que ocurre es que las empresas no se ocupan de la ética hasta que aparece el problema". Por ejemplo, con el coche autónomo, un caso de uso que no empezó a tratar este asunto hasta que una persona murió atropellada.

El "gran problema" a la hora de  incorporar estos valores a las distintas aplicaciones tecnológicas es que "la ética no es única, porque es cultural". Por ejemplo, la ética occidental y la oriental. Explica esta diferencia con un ejemplo. Un colega suyo trabajaba con un software de autoconducción que diferenciaba entre coches ‘budistas’, que tardaban mucho más en llegar a su destino porque atendían a la precaución, y ‘kantianos’, enfocados a perder menos tiempo. "Ahí está el problema, en quién decide qué ética aplicar y cómo se consensúa cuál debe usarse en cada caso", manifiesta. "Hoy tenemos un consenso parcial de las cosas que son legales o ilegales. Y eso cambia según los países. Es un tema muy complejo".  

Baeza-Yates también reflexiona sobre el concepto de la ‘larga cola’ (the long tail), que definió ya hace tiempo Chris Anderson. En su opinión, cuando la multitud domina, su ‘larga cola’ mata a la conducta individual. Un comportamiento que se traslada a internet. "Cuando algo es muy popular en la red, casi se anula la elección particular". No solo se refiere a un vídeo viral o un meme, también ocurre en el mercado electrónico. "Si hay un producto muy popular en Amazon, no puedes competir", declara. "Probablemente matará a los demás, aunque tengan mejor calidad o precio, porque los hace irrelevantes en el contexto de la ‘popularidad’ o de su ‘conocimiento’ general en el mercado online".

"El poder de estas plataformas online es inmenso, porque incluso pueden decidir quién vende y quién no. Y si tú tienes ese poder y no lo usas de forma justa, no permites que haya igualdad de oportunidades para quien lo merezca, lo que acaba ocurriendo básicamente que los pequeños mueren, a pesar de que tengan más innovación o calidad", reflexiona.

Qué pasa con las pymes

Según Francisco Martín, fundador de BigML, los servicios que va a proporcionar y la inteligencia artificial a las empresas deberían funcionar no solo para grandes corporaciones, sino para las pequeñas y medianas, como una commodity. En una economía como la española, donde el 90% de las empresas son pymes, esta visión tendría un gran impacto. "La mayoría de instituciones y empresas pequeñas no tiene big data y nunca lo va a tener. Por ejemplo, la panadería en un barrio nunca lo tendrá. Lo que tienen es small data". Y agrega: «El quid de la cuestión es si siendo pequeños, se pueden beneficiar de esta tecnología"». Reconoce que es algo que le gustaría hacer y que no existe en el mercado, una especie de "caja negra" donde la pyme dice su problema y con sus datos, recibe una solución. "Sería muy interesante y creo que es posible".

De momento, existe un escalado hacia abajo en inteligencia artificial en relación al tamaño de las empresas. "El problema es que, como estamos tan obsesionados con el big data, los investigadores no han analizado aún los límites del small data". "Depende de la complejidad del problema", puntualiza. "Cuanto complejo sea el problema, menos datos podemos usar". Pero, para ello, sería necesario poder medir la complejidad del problema y decidir el número de datos necesarios.

Robots sin forma

El investigador del MIT Eduardo Castelló recientemente ha descubierto que los ‘enjambres’ robóticos  son capaces de ‘mentir’, tal y como públicó INNOVADORES. Baeza-Yates hace un matiz filosófico sobre lo que es un robot. "Tenemos una tendencia bastante antropomórfica al imaginar a un robot, cuando en realidad, en el futuro, el 99% de la inteligencia artificial va a estar completamente oculta. No tendrá forma humanoide, no será algo que se mueva. Va a ser un agente de software de inteligencia artificial (IA)".

"Pero en el software hay reglas", puntualiza. Y, a su entender, hay una regla básica: "No puedes decir algo no sea coherente con los datos que tienes". "Eso no significa exactamente no mentir, significa que no te puedes contradecir a ti mismo. Si el agente de IA es coherente con sus datos, significa que no se puede contradecir a sí mismo". En ese caso, por tanto, la inteligencia artificial sería un artefacto determinista. "Una programación informática, per se, es determinista. Otra cosa es argumentar si las personas son deterministas o no. Ahora, ¿cuál es el problema? Si tú tienes un sistema abierto, por ejemplo, de agentes de inteligencia artificial donde están aprendiendo a negociar entre sí, van a aprender lo bueno y lo malo, si no hay ninguna regla que me diga que no puedo aprender a mentir", explica.

"Es un asunto de conveniencia. Yo hago lo que me permite ganar el juego, sea cual sea. El punto es si las reglas del juego son tales que incentivan cosas que no se esperaban, es porque la plataforma estaba diseñada así. Pero si hubiera una restricción que dijera tú no puedes mentir, no lo harían, aunque les conviniera. Si lo hacen es que las reglas de la plataforma lo permiten". Y concluye: "La pregunta es si queremos poner esa restricción o no".

Un mundo sin teclados

NTENT ha avanzado mucho en las tecnologías del lenguaje natural. Baeza-Yates se muestra convencido de que es posible un mundo sin teclados. "Tal vez no para todos los idiomas, ya que va a haber algunos que serán menos rentables", puntualiza. Aunque también sostiene que ciertas tareas no serán podrán ejecutarse únicamente con el lenguaje natural. "Por ejemplo, en los asistentes de voz, si hay 10 personas hablando en una sala al tiempo", dice. "Hay muchos asuntos que no están resueltos. Es algo muy complejo, además de evolutivo".