Está en la página 1de 13

El medio algorítmico*

Por Pierre Lévy**


En las ciencias, la economía o la política, las actividades humanas se basan cada vez más en la gestión y el
análisis de grandes masas de datos digitales1. Aunque no seamos totalmente conscientes de esto, nuestra sociedad
se está volviendo progresivamente data-céntrica. Paralelamente a esta evolución, nuestras comunicaciones - la
transmisión y recepción de datos - se basan en una infraestructura cada vez más compleja de manipulación
automática de símbolos, que yo llamo el medio algorítmico. Pero tanto la sociedad data-céntrica como el medio
algorítmico en el que se basa todavía están en sus tímidos inicios. La mayor parte de su crecimiento y desarrollo está
aún por venir. Es más, los espíritus siguen fascinados por el poder de difusión de mensajes que ofrece Internet, un
poder que no está lejos de llegar a su conclusión, de modo que un espacio inmenso - todavía inexplorado - está
abierto a la transformación y análisis de la avalancha de datos que producimos cotidianamente. A la vanguardia de la
revolución algorítmica, la iniciativa IEML2 (o todo otro sistema con las mismas propiedades) democratizará la
categorización y el análisis automático del océano de datos. Su utilización en los medios sociales creará un ambiente
todavía más propicio que hoy al aprendizaje colaborativo y a la producción de conocimientos masivamente
distribuidos. Haciendo esto, la IEML (o cualquier otro código semánticamente universal) contribuirá a hacer emerger
el medio algorítmico del futuro y permitirá una reflexión sobre la inteligencia colectiva en la edificación de la
sociedad data-céntrica por venir.

1 El agotamiento de la lógica de la difusión


1.1 El horizonte de la comunicación universal
Desde Gutenberg hasta mediados del siglo XX, el principal efecto técnico de los medios de comunicación fue
registrar, multiplicar y transmitir mecánicamente los símbolos de la comunicación humana. Se pueden tomar como
ejemplos, principalmente, la imprenta (diarios, revistas, libros), la industria disquera, el cine, la telefonía, la radio y la
televisión. Desde luego, ya existían técnicas de cálculo, o de transformación automática de símbolos. Pero las
calculadoras automáticas disponibles antes de las computadoras no eran muy poderosas y su uso, limitado.

Las primeras computadoras tuvieron poco impacto en la comunicación social debido a sus elevados precios,
su complejidad de uso y el reducido número de propietarios (particularmente las grandes empresas, ciertos
laboratorios científicos y las administraciones gubernamentales de países ricos). No fue hasta la década de 1980 que
el desarrollo de la informática personal puso en manos de una creciente proporción de la población poderosas
herramientas de producción de mensajes, ya sea de texto, de tablas, de figuras, de imágenes o de música. Desde esta
época, la democratización de impresoras y el desarrollo de redes de comunicación entre computadoras, así como la
multiplicación de cadenas de radio y televisión, comienza a replantear gradualmente el monopolio de la distribución
masiva de mensajes, que tradicionalmente pertenecía a editores, periodistas profesionales y responsables de las
principales cadenas de televisión3. Esta revolución de la difusión se aceleró con la llegada de la World Wide Web a

*Publicado en la revista “Societés”, París, 2013.


**Profesor del Departamento de comunicación de la Universidad de Ottawa, titular de la Cátedra de Investigación de Canadá de
Inteligencia Colectiva, miembro de la Sociedad Real de Canadá.
1
Traduzco “grandes masas de datos digitales” o “datos masivos” del término inglés “ big data” (P.L.)
2
IEML (Information Economy MetaLanguage) es un lenguaje que provee nuevos métodos para la inter operabilidad semántica, la
navegación semántica, la categorización colectiva y la inteligencia colectiva autorreferencial. IELM se presenta como codificación
de la significación lingüística para hacerla computable. Es utilizado en el Laboratorio de Inteligencia Colectiva (Universidad de
Ottawa, Canadá), cuya misión principal es la investigación teórica, empírica y aplicada relacionada con IEML. Ver: http:
www.ieml.org. [C. O]
3
Un monopolio a menudo también regulado o controlado por los gobiernos.
mediados de la década de 1990. Ésta desarrolló en la esfera pública mundial un nuevo tipo de multimedia que
prevalece a principios del siglo XXI.

En términos de la estructura de la comunicación social, la característica esencial de la nueva esfera pública es


permitir que cualquiera pueda producir mensajes, emitirlos a una comunidad sin fronteras y acceder a los mensajes
generados por otros emisores. Esta libertad de comunicación es tanto más efectiva porque su ejercicio es casi
gratuito y no necesita ningún conocimiento técnico previo. A pesar de las limitaciones que pronto voy a señalar, hay
que dar la bienvenida al nuevo horizonte de la comunicación que está disponible para nosotros: al ritmo en que
crecen el número de conexiones, casi todos los seres humanos de la próxima generación serán capaces de
comunicar sus mensajes a todo el mundo de forma gratuita y sin esfuerzo.

Está claro que la manipulación - o transformación - automática de símbolos se practicaba en los años 1960 y
1970. También he observado que la mayor parte de la informática personal era utilizada para la producción de
información y no solamente la difusión. Por último, las principales empresas de Internet como Google, Amazon, E-
bay, Apple, Facebook o Twitter tratan cotidianamente con enormes cantidades de datos en verdaderas “fábricas
informativas” completamente automatizadas. A pesar de esto, para la mayoría de la gente, el medio digital aún es
concebido y utilizado como una herramienta de difusión y recepción de información, en continuidad con los medios
de comunicación desde la imprenta pasando a través de la televisión. Es como si Internet distribuyera a cada
individuo el poder de una editorial, de una cadena de televisión y de una red postal de multimedia en tiempo real,
proporcionando, al mismo tiempo, acceso a una biblioteca y mediateca mundial omnipresente. Así como los
primeros libros impresos - los incunables - copiaban la forma de los manuscritos, nosotros todavía usamos el medio
digital para finalizar, o acercar a su fin, el poder de difusión de los medios de comunicación anteriores. Todo el
mundo puede emitir universalmente. Cada uno puede recibir de cualquier lugar.

1.2 Los límites del medio algorítmico contemporáneo


Además de la censura y la maliciosa vigilancia de los regímenes dictatoriales, existen al menos tres
limitaciones a este proceso de comunicación global.

1.2.1 Los límites cognitivos


La primera limitación es la capacidad cognitiva de los grupos sociales y los individuos: cuanto mayor es su
nivel de formación (primario, secundario, universitario), más desarrollado está su pensamiento crítico4 y más
capaces son de girar a su favor el nuevo ambiente de comunicación. A medida que los puntos de acceso y los
dispositivos móviles se multiplican, la famosa cuestión de la brecha digital5 reduce cada vez más los problemas de
alfabetización y de educación. Cabe señalar que la mera capacidad de leer y escribir ya ofrece acceso a una
posibilidad de expresión y un sinfín de relaciones sociales e información que estaban fuera de alcance sin el medio
digital6.

1.2.2 Los límites semánticos

4
El pensamiento crítico designa aquí la capacidad de evaluar la transparencia de una fuente de información, de verificar su
exactitud para comprobación y de descifrar sus presupuestos y sus teorías implícitas.
5
Digital divide en inglés
6
Ver los trabajos de Manuel Castells (por ejemplo, Communication Power, Oxford University Press, 2009) y de Barry Wellman
(por ejemplo, junto con Lee Rainie, Networked: The New Social Operating System, MIT press, 2012).
La segunda limitación es semántica ya que, si bien la conexión técnica tiende a ser universal, la comunicación
del significado todavía está fragmentada por los límites del lenguaje, sistemas de clasificación, disciplinas y otros
universos culturales más o menos dispares. La “Web sémantique” impulsada por Tim Berners Lee desde fines de la
década de 1990 es muy útil para traducir las relaciones lógicas entre datos. Pero no cumplió su promesa en la
interoperabilidad del sentido, a pesar de la autoridad de su patrocinador y de la inversión de muchos equipos de
ingeniería. Como demostré en el tomo I de La Esfera Semántica7, es imposible tratar plenamente los problemas
semánticos restantes dentro de los estrechos límites de la lógica. Por otro lado, los métodos esencialmente
estadísticos utilizados por Google, así como por los numerosos sistemas de traducción automática disponibles,
proveen excelentes útiles de ayuda para la traducción, pero no han tenido mejor éxito que la “Web sémantique”
para abrir un verdadero espacio de comunicación translinguística. Las estadísticas no son más eficaces que la lógica
para automatizar el procesamiento del significado. Una vez más, falta una codificación del significado lingüístico que
lo haga realmente computable en toda su complejidad.

1.2.3 Los límites del positivismo estadístico


El acceso público a la red de difusión de la web y los flujos de datos digitales que actualmente fluyen de
todas las actividades humanas nos enfrentan con el siguiente problema: ¿cómo transformar los torrentes de datos
en ríos de conocimiento? La solución a ese problema va a determinar la siguiente etapa de la evolución del medio
algorítmico. Algunos observadores entusiastas del procesamiento estadístico de los datos masivos, como Chris
Anderson, el jefe de redacción de Wired, se apresuran a declarar que las teorías científicas (¡en general!) son
obsoletas8. No necesitaríamos más que flujos masivos de datos y algoritmos estadísticos poderosos que operan en la
“nube” de Internet: las teorías - y por lo tanto las hipótesis que proponen y la reflexión resultante - pertenecerían a
una etapa pasada del método científico. Parece que los números hablan por sí mismos. Pero, obviamente, se olvida
que es necesario, antes de cualquier cálculo, determinar los datos pertinentes, saber exactamente lo que cuentan y
nombrar - es decir, categorizar - los patrones emergentes. Además, ninguna correlación estadística entrega
directamente las relaciones de causalidad. Éstas son, necesariamente, hipótesis que explican las correlaciones
puestas en evidencia por los cálculos estadísticos. Bajo la apariencia de pensamiento revolucionario, Chris Anderson
y sus seguidores resucitan la vieja epistemología positivista y empirista de moda en el siglo XIX según la cual los
razonamientos inductivos (es decir únicamente basados en los datos) son científicos. Esta posición vuelve a reprimir
o ignorar las teorías - y por lo tanto las hipótesis arriesgadas basadas en un pensamiento personal - que están
necesariamente en el trabajo de cualquier análisis de datos y que se manifiestan por decisiones de selección,
identificación y categorización. No se puede iniciar un procesamiento estadístico e interpretar sus resultados sin
teoría. Una vez más, la única opción que tendríamos sería dejar esta teoría en estado tácito o implícito. Pero
explicitar una teoría permite relativizarla, criticarla y mejorarla9. Es incluso uno de los principales componentes de lo
que se conoce como “el pensamiento crítico”, que la educación secundaria y universitaria se supone debe
desarrollar en los estudiantes.

Además de la observación empírica, el conocimiento científico siempre ha tenido que ver con la
preocupación por la categorización correcta y la descripción de datos fenoménicos, descripción que obedece
necesariamente a teorías más o menos formalizadas. Al describir las relaciones funcionales entre las variables, la
teoría proporciona un anclaje conceptual sobre el mundo fenomenal que permite (al menos parcialmente)
predecirlo y controlarlo. Los datos de hoy corresponden a aquello que la epistemología de los siglos pasados llamaba
fenómenos. Para seguir hilando esta metáfora, los algoritmos del análisis de flujos masivos de datos que se realizan
en el presente corresponden a los instrumentos de observación de la ciencia clásica. Esos algoritmos nos muestran
patrones, es decir las imágenes finales. Pero no es porque somos capaces de explotar el poder del medio algorítmico

7
La sphère sémantique, tome 1, Hermès-Lavoisier, Paris-Londres 2011, en particular en el capítulo 8.
8
Ver: de Chris Anderson “ The End of Theory: The Data Deluge Makes the Scientific Method Obsolete “, Wired, 23 de junio de
2008.
9
Entre la abundante literatura sobre el tema, ver especialmente las obras de dos grandes epistemólogos del siglo XX, Karl
Popper y Michael Polanyi.
para “observar” los datos que debemos detenernos en la forma. Ahora tenemos que confiar en la potencia de
cálculo de internet para “teorizar” (categorizar, modelar, explicar, compartir, discutir) nuestras observaciones, sin
olvidarnos de poner esta teoría en manos de la inteligencia colectiva.

2 Los comienzos de la sociedad data-céntrica


Ahora voy a describir los primeros pasos de la sociedad data-céntrica, tal como se concreta sobre la base de nuestra
nueva capacidad - masivamente distribuida - de difusión universal.

2.1 Una comunicación estigmérgica10


Comencemos por analizar el tipo de comunicación dominante de aquí en adelante, iniciado en el siglo XXI y
que se desarrolla en lo que se conoce como los “medios sociales “. Los medios sociales no designan aquí solamente
los blogs y los servicios clásicos de redes como Facebook, Twitter o Linkedin. Incluyen también una variedad de
servicios de publicación, de colaboración, de búsqueda, de aprendizaje o de transacción en línea que permiten a sus
usuarios encontrar las informaciones, los productos o las personas que buscan gracias a la explotación de la
inteligencia colectiva en línea. Por ejemplo, Wikipedia cuenta con la actividad auto-organizada de millones de
autores y editores. Google utiliza los hipervínculos que recoge de millones de sitios web para clasificar sus respuestas
a nuestras preguntas. Amazon nos sugiere libros basados en las elecciones de los usuarios que tienen perfiles de
compra similares a los nuestros, etc. A fin de cuentas, la comunicación siempre tuvo lugar entre dos personas. Sin
embargo, en el medio algorítmico, esta comunicación tiene lugar principalmente de modo estigmérgico, es decir que
las personas se comunican entre ellas modificando su ambiente común: los datos digitales en línea. Cada vínculo que
creamos, cada etiqueta que insertamos en una información, cada acto de evaluación o aprobación, cada “te amo “,
cada pedido, cada compra, cada comentario, cada re-tweet, todas esas operaciones modifican sutilmente la
memoria común, es decir, la intrincada masa de relaciones entre los datos. Nuestro comportamiento en línea emite
un flujo continuo de mensajes e indicios que contribuye – algunas veces directamente pero en su mayoría
indirectamente - a orientar y a informar a los otros internautas. Sin embargo, es así, evidentemente, porque la
información que producimos individualmente es procesada por los algoritmos con el fin de transformarla en
información útil para la colectividad.

2.2 El modelo data-céntrico de la comunicación


En el modelo data-céntrico de la comunicación, la interacción de los individuos con la masa de datos
comunes - y realizada por dicho intermediario con otros participantes - puede dividirse en cuatro etapas lógicamente
distintas pero prácticamente interdependientes: la producción, el enrutamiento, la búsqueda y el análisis.

10
Estigmergia significa colaboración a través del medio físico. En sistemas descentralizados, tales como las colonias
de hormigas, los diferentes componentes colaboran a través de pautas o hitos dejados en el medio: feromonas, acumulación de
objetos o cualquier otro tipo de cambio físico, como la temperatura.

El concepto de estigmergia fue introducido por Pierre-Paul Grassé, un estudioso de las hormigas, para explicar cómo se lograban
realizar las tareas entre insectos sociales sin necesidad de planificación ni de un poder central.

Actualmente, el concepto ha sido tomado y extendido a una serie de algoritmos que forman parte de la inteligencia artificial; en
general, estos algoritmos se denominan ACO o de optimización por colonia de hormigas. http://es.wikipedia.org/wiki/Estigmergia
[c.o]
2.2.1 La producción
Los datos en primer lugar deben ser producidos antes de ser introducidos en la memoria colectiva. Sea para
la redacción y edición de texto, de tablas, de imágenes fijas o animadas, de sonido, de música, de programa o de
paquetes multimedia, el productor de datos utilizar invariablemente uno o varios programas, es decir, en definitiva
algoritmos. Es lo mismo para los datos generados por las transacciones económicas, los sensores biomédicos o para
aquellos que permiten identificar, localizar y medir las acciones de objetos o máquinas.

2.2.2 El enrutamiento
Una vez producidos y emitidos sobre una base de datos en línea, los datos son procesados con el fin de ser
encaminados hacia los destinatarios pertinentes. En función de nuestras actividades y de nuestra red, los algoritmos
de servicios en línea nos envían selecciones de información, recomendaciones de personas para seguir, sugerencias
de compras, publicidades, etc. El análisis de grandes masas de datos y el filtraje colaborativo alimentan así -
normalmente de forma gratuita - nuestras demandas de información cotidiana y nuestros temas favoritos.

2.2.3 La búsqueda
Una petición explícita en un motor de búsqueda (es decir, hecha sobre una base de datos) activa una
selección de información así como la clasificación y la presentación de datos seleccionados. En la actividad de
búsqueda de datos, es en principio el usuario quien determina las informaciones que recibe. Pero los algoritmos de
motores de búsqueda personalizan sus resultados en función de nuestro perfil (lengua, pedidos, precedentes, etc.).
Además, sus algoritmos de selección y de orden tienen un impacto determinante sobre los resultados que nos
reenvían, como uno puede darse cuenta fácilmente comparando los resultados de la misma consulta en diferentes
motores de búsqueda.

2.2.4 El análisis
Finalmente, los datos reunidos a partir de diversas fuentes pueden ser analizados con el fin de extraer
patrones, regularidades o tendencias de lo contrario indiscernibles. Los resultados de ese análisis de grandes masas
de datos sirven para comprender mejor los complejos procesos, para prever el futuro (en lo posible) con más
exactitud y para tomar mejores decisiones. Los datos que son objeto de este tipo de análisis pueden ser producidos
“internamente” por los organismos que los tratan (gobiernos, laboratorios científicos, empresas...). Pero también
pueden ser recuperados en la web, ser puestos a disposición del público por las administraciones gubernamentales
de diversas escalas, o bien por las empresas que ofrecen sus datos por razones filantrópicas. Contrariamente a las
tres fases anteriores (producción, enrutamiento y búsqueda), el análisis automático de grandes masas de datos
raramente se encuentra en manos de usuarios finales de manera gratuita e intuitiva. En el 2013, estos análisis
automáticos todavía están, en su mayoría, reservados a las instituciones ricas y dotadas de fuerte capacidad técnica.

2.2.5 El papel de los algoritmos en la comunicación data-céntrica


Los resultados del análisis de grandes masas de datos son en sí mismos datos, que pueden servir para
producir documentos. Dichos documentos son, a su vez, enrutados, buscados y así sucesivamente. Se trata de un
ciclo. Reexaminemos las etapas de ese ciclo: los individuos colaboran para producir los datos, reciben los datos
pertinentes de otros grupos o en función de sus perfiles y sus actividades, cosechan los datos en respuesta a las
consultas explícitas y analizan las masas de datos recibidos. En todos los casos, la relación de los usuarios con los
datos está mediada por los algoritmos. Hemos visto que, en la sociedad data-céntrica, las personas se comunican de
manera indirecta, modificando la estructura de relaciones entre los datos que constituyen su contexto en común.
Pero nuestras interacciones con la masa de información almacenada en las “nubes” de internet es mediada por los
algoritmos. Estos algoritmos gestionan nuestras interacciones sensorio-motrices con las computadoras y los
dispositivos portables, nuestro acceso a las bases de datos, nuestras búsquedas, nuestras selecciones, etc. Es más,
los algoritmos organizan el circuito personal y colectivo de la emisión y recepción de datos, recomiendan y gestionan
los contactos personales en internet, acondicionan el ambiente económico, social y cognitivo de la inteligencia
colectiva. En resumen, estos son, de hecho, los algoritmos que ahora forman el medio de comunicación en el cual las
redes humanas construyen y modifican colaborativamente su memoria común.

2.3 Los avances multiformes de una cultura data-céntrica


Varios fenómenos tecno-sociales contemporáneos muestran elocuentemente el nacimiento de una nueva
era de la comunicación social.

El movimiento de la “ciencia abierta” aspira a la constitución de un bien común científico mundial


comprendiendo no solamente las publicaciones tradicionales (artículos, libros, informes) sino también los datos
brutos y las herramientas de software utilizadas para explotarlos. La comunidad científica internacional comunica así
de manera cada vez más transparente en su reunión alrededor del bien común digital que produce y del cual se
alimenta, como las universidades de antaño se reunían alrededor de sus bibliotecas.

La meta-disciplina emergente de las humanidades digitales trabaja digitalizando y poniendo en línea el


conjunto de archivos, textos, documentos diversos y comentarios acumulados que constituyen el material de su
actividad. Construye, además, alrededor de esa masa documental una gran cantidad de redes sociales que
comparten sus herramientas para la explotación colaborativa de datos11.

Los periodistas ubican los prometedores conjuntos de datos proporcionados por los gobiernos, las
organizaciones de producción de estadísticas o de otras instituciones. Analizan estos datos mediante algoritmos
apropiados, para, finalmente, visualizar y explicar los resultados a sus lectores.

En el dominio de la comunicación organizativa y de la “gestión del conocimiento “, se considera cada vez más
que una buena gestión social de los conocimientos emerge, de manera ascendente, de las actividades personales de
los miembros de la organización para manejar sus propios conocimientos. La empresa o la administración se vuelve,
así, un medio social que facilita tres procesos complementarios. En primer lugar, sus miembros, sus clientes y sus
socios acumulan datos comunes codificando el conocimiento que les resulta útil para ellos. En segundo lugar, cada
uno puede acceder a esos datos en el momento oportuno. En tercer lugar, las conversaciones abiertas entre los
participantes en la red facilitan tanto la codificación del conocimiento destinada a la colectividad como su
apropiación personal en la situación de trabajo.

En su versión conexionista, los cursos abiertos en línea “masivos” (MOOC12) transcienden la educación a
distancia clásica para estimular el aprendizaje colaborativo en red, en el cual los estudiantes contribuyen a producir
el material pedagógico común sobre una multitud de plataformas interconectadas.

La mayoría de las formas de crowdsourcing, así como la comunicación y el reparto de ficheros “pair à pair”
(P2P) ilustran ese modelo de relación social en la cual una multitud de individuos se reúnen virtualmente alrededor
de un tesoro de datos comunes para - simultáneamente - enriquecerlo y explotarlo.

2.4 Las instituciones data-céntricas


Más allá de estas tendencias de vanguardia, las instituciones humanas como las administraciones
gubernamentales, las colectividades locales, las universidades, los colegios, las empresas grandes o pequeñas y las

11
Ver sobre este punto, de Michael Nielsen, Reinventing Discovery: The New Era of Networked Science, Princeton University
Press, 2012
12
Massive open online course
asociaciones de todo tipo se apoyan, para sus desempeños cotidianos (administrativos, presupuestarios, legales,
estratégicos, etc.) en la gestión informatizada de datos digitales. Se pueden distinguir dos grandes tipos de datos
respecto a esto.

En primer lugar, los datos “internos” representan las instituciones para sí mismas. Esto incluye sus archivos,
sus habilidades o conocimientos clave, las operaciones en curso, así como la información sobre sus miembros,
clientes o beneficiarios. Las instituciones son generalmente responsables de la producción y del mantenimiento de
los datos sobre los cuales basan sus memorias y sus actividades cotidianas. Dichos datos son evidentemente
producidos y gestionados en función del sentido que les atribuye la institución, sentido que se encuentra en sus
finalidades y sus tradiciones.

En segundo lugar, los datos “externos “ son producidos por otras instituciones, y comprenden los medios de
comunicación tradicionales. Estos datos externos representan el ambiente de la institución y a menudo son objeto
de un trabajo de monitoreo científico, industrial, económico, político, estratégico y así sucesivamente. Para la
institución en cuestión, el fin de esta actividad de información es comprender su entorno, prever lo antes posible su
evolución y adaptarse a él - o de intervenir de manera proactiva. Como los datos externos son producidos y
organizados en función de finalidades o de ángulos de interpretación que no son los suyos, la institución debe
reintroducirlos - o re-categorizarlos - a su manera.

Es claro que la frontera entre los dos tipos de datos, internos y externos, es altamente permeable. Además,
las instituciones están cada vez más organizadas e interconectadas en redes a través de las cueles intercambian sus
datos y realizan una gran cantidad de transacciones en línea. Las instituciones se vuelven data-céntricas a medida
que se identifican cada vez menos con su infraestructura material (incluyendo también sus propias computadoras) y
su ubicación física, identificándose entonces cada vez más con el núcleo duro de sus datos estratégicos así como con
el modo de codificación y procesamiento de datos - internos y externos - que son necesarios en el mantenimiento de
su integridad. Estos datos fundamentales - y los algoritmos que los tratan - pueden ser virtualizados en las nubes de
internet, permitiendo así a los colaboradores de la institución acceder a ellos en todo momento y lugar.

2.5 Los conflictos data-céntricos


Los conflictos políticos o militares también giran cada vez más alrededor del control de datos digitales en
línea. Las recientes campañas electorales sin duda son jugadas ampliamente en los medios de comunicación social,
al modo clásico de agitación y propaganda. Pero también se ha visto aparecer una tendencia complementaria: los
equipos ganadores han invertido en el análisis automático de grandes masas de datos sobre los electores y sus
opiniones. Han sido más capaces de explotar en tiempo real sobre el terreno los resultados de estos análisis13.

Las revueltas árabes del 2011 han utilizado los teléfonos inteligentes y las redes sociales para su organización
interna y la difusión de sus mensajes14. Simétricamente, las dictaduras afectadas han tratado de cortar o codificar las
redes, han infiltrado las comunidades en línea para obtener información sobre los revolucionarios y se han dedicado
a actividades de contra-propaganda en el medio digital. Ya no hay un movimiento social en el mundo que no utilice
actualmente el poder de coordinación y difusión de las redes sociales. Tanto los gobiernos como los servicios de
inteligencia y la policía utilizan las mismas herramientas de difusión, explotación, manipulación y análisis de datos.

Cualesquiera que sean los campos en presencia, siempre se trata de analizar e influenciar la memoria a corto
plazo (la actualidad) y a largo plazo (la historia) de las comunidades concernientes, memoria que se encarna
actualmente en los flujos de provisión de datos digitales. Del lado del análisis, se intenta percibir las señales débiles y
los patrones de evolución que anuncian el futuro a pesar de que no atraen la atención de la mayoría. Del lado de la
influencia, se intenta hacer olvidar, pasar por alto o desacreditar ciertos datos, pretendiendo, en cambio, atraer la

13
Ver como ejemplo: “ Beware the Smart Campaign “ de Zeynep Tufekci, en New York Times, 16 de Noviembre de 2012.
14
Ver como ejemplo, de Reda Benkirane, The Alchemy of Revolution: The Role of Social Networks and New Media in the Arab
Spring, Geneva Centre for Security Policy GCSP Policy Paper 2012/7.
atención hacia los datos “favorables” (incluso, crearlos artificialmente) y otorgarles un máximo de credibilidad. Los
medios de comunicación clásicos (los grandes diarios y la televisión) ya no son más que fuentes de datos como las
otras. Estas fuentes mediáticas son particularmente poderosas debido a su medio y su credibilidad, pero sus efectos
se miden actualmente en su capacidad diferencial para influenciar la conexión afectiva de la gente y de los grupos
con la masa global de datos.

Hasta el siglo XIX, los ejércitos se dividían en ejército de tierra y de mar. El siglo XX ha visto el desarrollo de
un tercer ejército mayor: la aviación. Desde la segunda década del siglo XXI, un cuarto ejército ha hecho su aparición
en las fuerzas de defensa de la mayoría de las grandes y medianas potencias: el arma informática. La ciberguerra
comprende obviamente el espionaje, la desinformación y los juegos de simulación. Pero no se limita a eso porque,
en ese caso, hubiera podido permanecer confinada a la función de información, de propaganda y de reflexión
estratégica de las otras armas. Además de las funciones clásicas que han sido nombradas, los ciber-ataques apuntan
al bloqueo de las redes y la destrucción de los datos clave de la fuerza militar, el gobierno y la economía de las
potencias enemigas, así como la toma de control de instalaciones e infraestructuras a distancia. Esta toma de control
puede llegar incluso al sabotaje físico de las instalaciones y a la total interrupción de las infraestructuras. Del lado de
la defensa, la nueva arma tiene por misión proteger las redes y los datos estratégicos de las instituciones militares,
gubernamentales, industriales y económicas de un país. No hace falta decir que una de las habilidades más
esperadas de los ciber-ninjas es la concepción y la programación de algoritmos. Cabe señalar, además, que todas las
ramas de los ejércitos cuentan con capacidad de comunicación, coordinación e información (embarcadas,
interactivas y en tiempo real) que reproducen – aumentadas - las funciones de los medios de comunicación social
civiles.

3. El desarrollo del medio algorítmico


Sin duda hay que haber agotado las posibilidades lógicas de la difusión automática - a saber, la virtud
mediática de los últimos cuatro siglos - con el fin de conocer y empezar a asimilar sobre un plano cultural el potencial
aún casi inexplorado de la transformación automática: la virtud mediática de los siglos por venir. Es por eso que
hablo aquí de medio algorítmico: a fin de subrayar la capacidad de transformación automática de la comunicación en
el soporte digital. Por supuesto, el poder de transformación o de procesamiento del nuevo medio solo puede
actualizarse en la base de la realización de la misión del medio anterior, es decir la difusión universal o la ubicuidad
de la información. Siendo esta ubicuidad prácticamente alcanzada a principio del siglo XXI, las generaciones futuras
harán progresivamente más sociable el procesamiento automático del oleaje oceánico de datos mundiales, junto
con todas las consecuencias culturales no previstas que esto va a arrastrar.

Hoy en día, la mayor parte de los algoritmos que gestionan el enrutamiento de mensajes y la búsqueda de
datos son opacos, puesto que son protegidos por el secreto comercial de las grandes compañías de internet. En
cuanto a los algoritmos de análisis, en su mayoría, no solo son opacos sino que también están fuera del alcance de la
mayoría de los internautas por razones a la vez técnicas y económicas. Pero es imposible producir información fiable
mediante métodos secretos. Obviamente debe considerarse el estado contemporáneo del medio algorítmico como
transitorio. Solo se podrá domesticar culturalmente el crecimiento exponencial de datos - y luego transformar esos
datos en conocimiento reflexivo - mediante una mutación cualitativa del medio algorítmico. Pero para entender
cómo llegamos allí, y sobre todo para prever la manera en que la sociedad data-céntrica y el medio algorítmico
continuarán desarrollándose en el futuro, debemos previamente explorar la esencia arbitraria de la manipulación
automática de símbolos.

3.1 La estructura algorítmica


Para comprender la naturaleza del nuevo medio, debemos imaginarnos lo más claramente posible qué es un
algoritmo y cómo funciona.
3.2 Codificación
Para que los procesamientos automáticos puedan ser aplicados a datos, es necesario, obviamente, que los datos en
cuestión hayan sido previamente codificados de manera adecuada y uniforme. Aquí no se trata solamente de la
codificación binaria (cero y uno), sino de tipos de codificaciones más especializadas. Puede darse como ejemplo la
codificación de números (base dos, ocho, diez, dieciséis, etc.) de los caracteres de escritura, de las imágenes (los
píxeles), de los sonidos, y así seguidamente. Señalo al respecto que IEML se presenta como un sistema de
codificación de la significación lingüística para hacerla computable, exactamente como el sistema de píxeles ha
hecho manipulables las imágenes mediante algoritmos.

3.1.2 Operadores
A continuación debe imaginarse un conjunto de herramientas o de micro-máquinas especializadas en la
ejecución de ciertas tareas. Llamemos a estas herramientas especializadas “operadores “. Los operadores están
precisamente identificados y actúan de manera completamente determinada y mecánica, siempre de la misma
manera. Obviamente debe existir una correspondencia o una adecuación entre la codificación de los datos y el
funcionamiento de los operadores.

Los operadores han sido en primer lugar identificados dentro de las computadoras: son aquí circuitos
electrónicos elementales. Pero uno puede considerar el procesador de datos - por más complejo que sea - como una
<< caja negra >> que oficia de operador. Es así como el protocolo de internet, al dirigir sus equipos en la red, ha
abierto al mismo tiempo un sistema universal de direccionamiento de operadores.

3.1.3 Contenedores
También debe imaginarse un depósito de datos cuyas casillas o “contenedores” elementales son
perfectamente direccionadas: un sistema de registro lógico ofreciendo una superficie lisa para la escritura, el
borrado y la lectura. Está claro que la codificación de los datos, las operaciones que les son aplicadas y sus modos de
registro deben ser armonizadas para optimizar los procesamientos.

El primer sistema de direccionamiento de los contenedores es interno de las computadoras, y es gestionado


por su sistema de explotación. Pero, por encima de esta capa de dirección interna, las URL de la World Wide Web
han instaurado un sistema de direccionamiento de contenedores que es universal.

3.1.4 Instrucciones
El cuarto y último aspecto de un algoritmo es un conjunto ordenado de reglas - o un mecanismo de control - que
organiza la circulación recursiva de los datos entre los contenedores y los operadores. La circulación es iniciada por
un flujo de datos que sale de los contenedores hacia los operadores apropiados, y luego dirige los resultados de las
operaciones hacia los contenedores precisamente direccionados. Un conjunto de pruebas determina la elección de
los contenedores desde dónde extraer los datos a procesar, la elección de los contenedores desde dónde registrar
los resultados, y la elección de los operadores. La circulación de datos acaba cuando una prueba ha determinado que
el procesamiento finalizó. Entonces, el resultado del procesamiento - a saber: un conjunto de datos codificados - se
encuentra en una dirección precisa del sistema de contenedores.

3.1.5 Las instrucciones dependen del juego de operaciones así como de la


codificación y el direccionamiento de los datos
En las explicaciones populares o vulgarizadas de la programación, se suele reducir al algoritmo a una serie de
instrucciones o a una “receta “. Pero ningún algoritmo puede cumplir su papel sin disponer previamente de los tres
elementos siguientes: primero, un código adecuado para los datos; segundo, un conjunto bien determinado de
operadores cosificados – o de funciones que se comporten como cuadros negros; tercero, un sistema de
contenedores precisamente direccionados capaces de registrar los datos iniciales, los resultados intermedios y el
resultado final. Las reglas – o instrucciones – solo tienen sentido en relación con el código, los operados y las
direcciones de memoria. Quisiera resaltar aquí un punto bien conocido de los especialistas, pero cuya importancia es
raramente apreciada por el público: el tipo de procesamiento, el alcance y el resultado de los algoritmos dependen
estrictamente de la identidad de los operadores, así como de la codificación y el direccionamiento de los datos.

Me voy a apoyar ahora en el análisis que acabo de hacer de la estructura íntima de los algoritmos para
analizar la evolución del medio algorítmico. Veremos que las grandes etapas de crecimiento de este medio se
relacionan precisamente con la aparición de nuevos sistemas de direccionamiento y codificación, tanto para los
contenedores de datos como para los operadores.

3.2 El huevo (1940-1970)


¿Qué fecha podemos darle al advenimiento del medio algorítmico? Podríamos vernos tentados de decir que
su nacimiento fue en 1937, ya que ese es el año en el que Alan Turing publicó su famoso artículo introduciendo por
primera vez el concepto de máquina universal, o sea, el diagrama formal de una computadora. El artículo en
cuestión representa las funciones computables por los programas de la máquina universal; es decir, en el fondo, por
medio de algoritmos. Podríamos igualmente elegir 1945, ya que John von Neumann publicaba en el mes de Junio de
ese año el “Primer borrador de un informe sobre el EDVAC “donde presenta la arquitectura fundamental de la
computadoras: 1) una memoria contenedora de los datos y los programas (estos últimos codifican los algoritmos), 2)
una unidad de cálculo aritmético y lógico, 3) una unidad de verificación capaz de interpretar las instrucciones de los
programas contenidos en la memoria. Ya que los textos seminales de Turing y von Neumann solo representan
avances teóricos, podríamos datar la nueva era de la construcción y del uso efectivo de las primeras computadoras,
en los años de 1950. Está claro que (a pesar de la presencia de algunos visionarios), hasta fines de los 1970, todavía
difícilmente podía hablarse de un medio algorítmico. Una de las principales razones es que las computadoras, en esa
época, aún eran grandes costosas y cerradas sobre sí mismas, cuyas interfaces de entrada y salida podían ser
manejadas únicamente por especialistas. Aunque ya estaba en el huevo, el medio algorítmico todavía no tenía
prevalencia social. Se notará que, entre 1950 y 1980, los flujos algorítmicos de datos circulan en su mayoría entre los
contenedores y los operadores en direcciones locales, cercados en una sola máquina.

3.3 La eclosión (1970-1995)


Una nueva tendencia se manifiesta en la década de 1970, y toma la delantera durante la década de 1980: la
interconexión de las computadoras. El protocolo de internet (inventado en 1969) se impone en relación a sus
competidores para direccionar las máquinas a las redes de telecomunicación. Este es también el período durante el
cual la informática se vuelve personal. Lo digital es, entonces, percibido como un vector de transformación y de
comunicación de todos los símbolos, y no solamente de cifras. Las actividades de correo, de telecomunicaciones, de
edición, de prensa y de difusión radio-televisada comienzan a converger.

En esta etapa, los datos procesados por los algoritmos siempre son arbitrados por los contenedores de las
redes locales pero - además de esta dirección - los operadores tienen una dirección física universal en la red mundial.
En consecuencia, los operadores algorítmicos pueden “colaborar“ y el abanico de tipos de procesamiento y
aplicaciones se ensanchan considerablemente.

3.4 La maduración (1995-2020)


Sin embargo, internet no se volvió un soporte de comunicación mayoritario - al punto de cuestionar
irreversiblemente el funcionamiento de los medios de comunicación tradicionales y el de la mayoría de las
instituciones económicas, políticas y culturales - hasta la llegada de la Web, alrededor de 1995. La revolución de la
Web se explica esencialmente por la creación de un sistema de direcciones físicas universales de los contenedores. Se
trata, claro, de las URL. Notemos que - como en el caso del protocolo de internet por los operadores - este sistema
universal se agrega a las direcciones locales de los contenedores de datos, no los suprime.

Por lo tanto, la potencia efectiva y la capacidad de colaboración - o de interoperación - de los algoritmos se


incrementa y se diversifica prodigiosamente, ya que ahora son los operadores y los contenedores quienes poseen las
direcciones universales. La máquina programable fundamental se vuelve la red misma, como demuestra la
generalización del “cloud computing”.

La década 2010-2020 ve el comienzo de la transición hacia una sociedad data-céntrica. En efecto, a partir de
esta fase del despliegue social del nuevo medio, las interacciones entre las personas usan, en su mayoría, el canal de
internet, ya sea para la pura y simple sociabilidad o para la información, el trabajo, la búsqueda, el aprendizaje, el
consumo, la acción política, el juego, y así sucesivamente. Paralelamente, los algoritmos interconectan de manera
creciente las relaciones entre la gente, las relaciones entre los datos y las relaciones entre la gente y los datos. El
aumento de conflictos sobre la propiedad y el libre acceso a los datos, así como en torno de la apertura y la
transparencia de los algoritmos, son señales seguras de la transición hacia una sociedad data-céntrica. Sin embargo,
como dije al comienzo de este capítulo, a pesar de su papel ya significativo, los algoritmos aún no son vistos en la
consciencia colectiva como el nuevo medio de comunicación y del pensamiento humano.

3.5 El desarrollo (2020-...)


Aquello que todavía no existe es notoriamente difícil de observar o reconocer, y, más aún, la ausencia de lo
que aún no existe. Pero lo que detiene hoy el desarrollo de un legítimo medio algorítmico - y a la vez el
advenimiento de una nueva civilización - es precisamente la ausencia de un sistema universal y computable de
metadatos semánticos. Recuerdo que la esfera semántica fundada sobre la base del lenguaje IEML es la primera y
(en mi conocimiento) la única candidata para este papel de sistema de coordenadas semánticas de datos.

Disponemos ya de un sistema de direccionamiento físico universal de datos (la Web) y de un sistema de


direccionamiento físico universal de operadores (Internet). En esta fase de pleno despliegue, el medio algorítmico
comprenderá además un código semántico universal: IEML. Este sistema de metadatos - concebidos desde el origen
para optimizar la computabilidad del sentido, al tiempo que aumenta su diferenciación al infinito - abrirá el medio
algorítmico a la interoperabilidad semántica y dará pie a nuevos tipos de manipulación simbólica.

Si los datos de hoy corresponden a fenómenos de la ciencia clásica, entonces necesitamos de metadatos
computables e interoperables que hagan lo mismo con las teorías y los modelos explicativos de la ciencia clásica.
IEML se presenta justamente como una herramienta algorítmica de teorización y categorización capaz de explotar la
potencia de cálculo de la “nube“ y de aportar un indispensable complemento a las recientes herramientas
algorítmicas de observación de patrones.

IEML propone un método automatizado de definición de conceptos y de relación entre conceptos. Los datos
categorizados en IEML podrían ser tratados de manera mucho más eficaz que hoy en día, ya que las categorías y las
relaciones semánticas entre categorías entonces se volverían no solamente computables sino automáticamente
traducibles de un lenguaje a otro15. Además, IEML permitirá comparar los resultados proporcionados para el análisis
del mismo conjunto de datos según reglas de categorización (¡de teorías!) diferentes.

Cuando este sistema simbólico de análisis y síntesis conceptual esté, democráticamente, en manos de todos,
se traducirá automáticamente en todas las lenguas y se manipulará fácilmente a partir de una simple tableta, y
entonces el océano de datos podrá ser domesticado y el medio algorítmico será directamente experimentado como
una herramienta de aumento cognitivo - personal y social - y no solamente como un instrumento de difusión. Sobre

15
Para ser más preciso, las redes semánticas hipertextuales podrían ser traducidas automáticamente para todas las lenguas
figuradas en el diccionario multilingüe de IEML.
la base de este metalenguaje abierto de generación y reconocimiento de redes semánticas, un ciclo auto-generador
de experimentación colectiva y de creación de herramientas llevará al despegue del medio algorítmico del futuro.

4. La revolución de la comunicación no ha terminado


Entre 1950 y 1980, el ave del medio algorítmico dormía en el huevo de las grandes computadoras. Hizo
eclosión como red entre 1980 y 1995 con internet y las PC. Realizó su maduración multimedia, interactiva y social
gracias a la Web desde 1995. Pero nunca ha realmente despegado. Tomará vuelo al fin de la segunda década del
siglo XXI, a partir de un umbral crítico en la adopción del IEML (o de cualquier otro sistema universal de codificación
computacional del sentido). Esto significa, en principio, que la “revolución de la comunicación” no ha terminado y
que, por ahora, solo hemos visto los primeros comienzos. Con la sociedad humana y sus instituciones más data-
céntricas, y con más domino de los datos - comenzando por su dominio intelectual - se tenderá a una mayor apuesta
científica, política, social y económica. Siendo adquirida la capacidad universal de emisión, la evolución tecno-
cultural se desplazará sobre el perfeccionamiento de las capacidades colaborativas de producción, de análisis, de
síntesis y de transformación de los flujos y conjuntos de datos. Hoy, solo los gobiernos, las grandes empresas y los
grandes centros de investigación académica tienen los medios financieros y las capacidades para extraer las
informaciones pertinentes de enormes masas de datos. Mañana, las herramientas accesibles gratuitamente a partir
de todas las tabletas permitirán producir, encaminar, registrar y analizar colaborativamente el océano de datos. El
dominio teórico y práctico de estas herramientas será enseñado en la escuela primaria. Los algoritmos sobre los
cuales se basarán serán distribuidos, abiertos, transparentes, interoperables, personalizables a voluntad, y utilizarán
todo el alcance del cloud computing. IEML se sitúa a la vanguardia de este movimiento indisolublemente técnico,
científico y cultural.

El medio tipográfico apoyaba la reproducción y la difusión automática de símbolos. Permitió el desarrollo de


formas culturales inéditas, como la ciencia experimental, las matemáticas de la naturaleza, la economía industrial y
el Estado-nación. El medio algorítmico apoya la manipulación y la transformación automática de símbolos. La
sociedad data-céntrica basada sobre el medio algorítmico del futuro será sin duda tan diferente de la sociedad
industrial como el Egipto faraónico basado en la escritura jeroglífica lo era de las tribus prehistóricas.

Traducción del francés realizada para la cátedra de Teoría y Medios de la Comunicación, Facultad de Filosofía y
Letras, UBA. Supervisión: Carla Ornani
Pierre Levy (2013). Publicado en la revista Societés, París.

El medio algorítmico

1. El agotamiento de la lógica de la difusión


1.1. El horizonte de la comunicación universal
1.2. Los límites del medio algorítmico
1.2.1. Los límites cognitivos
1.2.2. Los límites semánticos
1.2.3. Los límites del positivismo estadístico

2. Los comienzos de la sociedad datacéntrica


2.1. Una comunicación estigmérgica
2.2. El modelo datacéntrico de la comunicación
2.2.1. La producción
2.2.2. El enrutamiento
2.2.3. La búsqueda
2.2.4. El análisis
2.2.5. El papel de los algoritmos en la comunicación data-céntrica
2.3. Los avances multiformes de una cultura data-céntrica
2.4. Las instituciones data-céntricas
2.5. Los conflictos data-céntricos

3. El desarrollo del medio algorítmico


3.1. La estructura algorítmica
3.1.1. Codificación
3.1.2. Operadores
3.1.3. Contenedores
3.1.4. Instrucciones
3.1.5. Las instrucciones dependen de la codificación y el direccionamiento de los datos
3.2. El huevo ((1940-1970)
3.3. La eclosión (1970-1995)
3.4. La maduración (1995-2020)
3.5. El desarrollo (2020…)

4. La revolución no ha terminado

También podría gustarte