Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Las primeras computadoras tuvieron poco impacto en la comunicación social debido a sus elevados precios,
su complejidad de uso y el reducido número de propietarios (particularmente las grandes empresas, ciertos
laboratorios científicos y las administraciones gubernamentales de países ricos). No fue hasta la década de 1980 que
el desarrollo de la informática personal puso en manos de una creciente proporción de la población poderosas
herramientas de producción de mensajes, ya sea de texto, de tablas, de figuras, de imágenes o de música. Desde esta
época, la democratización de impresoras y el desarrollo de redes de comunicación entre computadoras, así como la
multiplicación de cadenas de radio y televisión, comienza a replantear gradualmente el monopolio de la distribución
masiva de mensajes, que tradicionalmente pertenecía a editores, periodistas profesionales y responsables de las
principales cadenas de televisión3. Esta revolución de la difusión se aceleró con la llegada de la World Wide Web a
Está claro que la manipulación - o transformación - automática de símbolos se practicaba en los años 1960 y
1970. También he observado que la mayor parte de la informática personal era utilizada para la producción de
información y no solamente la difusión. Por último, las principales empresas de Internet como Google, Amazon, E-
bay, Apple, Facebook o Twitter tratan cotidianamente con enormes cantidades de datos en verdaderas “fábricas
informativas” completamente automatizadas. A pesar de esto, para la mayoría de la gente, el medio digital aún es
concebido y utilizado como una herramienta de difusión y recepción de información, en continuidad con los medios
de comunicación desde la imprenta pasando a través de la televisión. Es como si Internet distribuyera a cada
individuo el poder de una editorial, de una cadena de televisión y de una red postal de multimedia en tiempo real,
proporcionando, al mismo tiempo, acceso a una biblioteca y mediateca mundial omnipresente. Así como los
primeros libros impresos - los incunables - copiaban la forma de los manuscritos, nosotros todavía usamos el medio
digital para finalizar, o acercar a su fin, el poder de difusión de los medios de comunicación anteriores. Todo el
mundo puede emitir universalmente. Cada uno puede recibir de cualquier lugar.
4
El pensamiento crítico designa aquí la capacidad de evaluar la transparencia de una fuente de información, de verificar su
exactitud para comprobación y de descifrar sus presupuestos y sus teorías implícitas.
5
Digital divide en inglés
6
Ver los trabajos de Manuel Castells (por ejemplo, Communication Power, Oxford University Press, 2009) y de Barry Wellman
(por ejemplo, junto con Lee Rainie, Networked: The New Social Operating System, MIT press, 2012).
La segunda limitación es semántica ya que, si bien la conexión técnica tiende a ser universal, la comunicación
del significado todavía está fragmentada por los límites del lenguaje, sistemas de clasificación, disciplinas y otros
universos culturales más o menos dispares. La “Web sémantique” impulsada por Tim Berners Lee desde fines de la
década de 1990 es muy útil para traducir las relaciones lógicas entre datos. Pero no cumplió su promesa en la
interoperabilidad del sentido, a pesar de la autoridad de su patrocinador y de la inversión de muchos equipos de
ingeniería. Como demostré en el tomo I de La Esfera Semántica7, es imposible tratar plenamente los problemas
semánticos restantes dentro de los estrechos límites de la lógica. Por otro lado, los métodos esencialmente
estadísticos utilizados por Google, así como por los numerosos sistemas de traducción automática disponibles,
proveen excelentes útiles de ayuda para la traducción, pero no han tenido mejor éxito que la “Web sémantique”
para abrir un verdadero espacio de comunicación translinguística. Las estadísticas no son más eficaces que la lógica
para automatizar el procesamiento del significado. Una vez más, falta una codificación del significado lingüístico que
lo haga realmente computable en toda su complejidad.
Además de la observación empírica, el conocimiento científico siempre ha tenido que ver con la
preocupación por la categorización correcta y la descripción de datos fenoménicos, descripción que obedece
necesariamente a teorías más o menos formalizadas. Al describir las relaciones funcionales entre las variables, la
teoría proporciona un anclaje conceptual sobre el mundo fenomenal que permite (al menos parcialmente)
predecirlo y controlarlo. Los datos de hoy corresponden a aquello que la epistemología de los siglos pasados llamaba
fenómenos. Para seguir hilando esta metáfora, los algoritmos del análisis de flujos masivos de datos que se realizan
en el presente corresponden a los instrumentos de observación de la ciencia clásica. Esos algoritmos nos muestran
patrones, es decir las imágenes finales. Pero no es porque somos capaces de explotar el poder del medio algorítmico
7
La sphère sémantique, tome 1, Hermès-Lavoisier, Paris-Londres 2011, en particular en el capítulo 8.
8
Ver: de Chris Anderson “ The End of Theory: The Data Deluge Makes the Scientific Method Obsolete “, Wired, 23 de junio de
2008.
9
Entre la abundante literatura sobre el tema, ver especialmente las obras de dos grandes epistemólogos del siglo XX, Karl
Popper y Michael Polanyi.
para “observar” los datos que debemos detenernos en la forma. Ahora tenemos que confiar en la potencia de
cálculo de internet para “teorizar” (categorizar, modelar, explicar, compartir, discutir) nuestras observaciones, sin
olvidarnos de poner esta teoría en manos de la inteligencia colectiva.
10
Estigmergia significa colaboración a través del medio físico. En sistemas descentralizados, tales como las colonias
de hormigas, los diferentes componentes colaboran a través de pautas o hitos dejados en el medio: feromonas, acumulación de
objetos o cualquier otro tipo de cambio físico, como la temperatura.
El concepto de estigmergia fue introducido por Pierre-Paul Grassé, un estudioso de las hormigas, para explicar cómo se lograban
realizar las tareas entre insectos sociales sin necesidad de planificación ni de un poder central.
Actualmente, el concepto ha sido tomado y extendido a una serie de algoritmos que forman parte de la inteligencia artificial; en
general, estos algoritmos se denominan ACO o de optimización por colonia de hormigas. http://es.wikipedia.org/wiki/Estigmergia
[c.o]
2.2.1 La producción
Los datos en primer lugar deben ser producidos antes de ser introducidos en la memoria colectiva. Sea para
la redacción y edición de texto, de tablas, de imágenes fijas o animadas, de sonido, de música, de programa o de
paquetes multimedia, el productor de datos utilizar invariablemente uno o varios programas, es decir, en definitiva
algoritmos. Es lo mismo para los datos generados por las transacciones económicas, los sensores biomédicos o para
aquellos que permiten identificar, localizar y medir las acciones de objetos o máquinas.
2.2.2 El enrutamiento
Una vez producidos y emitidos sobre una base de datos en línea, los datos son procesados con el fin de ser
encaminados hacia los destinatarios pertinentes. En función de nuestras actividades y de nuestra red, los algoritmos
de servicios en línea nos envían selecciones de información, recomendaciones de personas para seguir, sugerencias
de compras, publicidades, etc. El análisis de grandes masas de datos y el filtraje colaborativo alimentan así -
normalmente de forma gratuita - nuestras demandas de información cotidiana y nuestros temas favoritos.
2.2.3 La búsqueda
Una petición explícita en un motor de búsqueda (es decir, hecha sobre una base de datos) activa una
selección de información así como la clasificación y la presentación de datos seleccionados. En la actividad de
búsqueda de datos, es en principio el usuario quien determina las informaciones que recibe. Pero los algoritmos de
motores de búsqueda personalizan sus resultados en función de nuestro perfil (lengua, pedidos, precedentes, etc.).
Además, sus algoritmos de selección y de orden tienen un impacto determinante sobre los resultados que nos
reenvían, como uno puede darse cuenta fácilmente comparando los resultados de la misma consulta en diferentes
motores de búsqueda.
2.2.4 El análisis
Finalmente, los datos reunidos a partir de diversas fuentes pueden ser analizados con el fin de extraer
patrones, regularidades o tendencias de lo contrario indiscernibles. Los resultados de ese análisis de grandes masas
de datos sirven para comprender mejor los complejos procesos, para prever el futuro (en lo posible) con más
exactitud y para tomar mejores decisiones. Los datos que son objeto de este tipo de análisis pueden ser producidos
“internamente” por los organismos que los tratan (gobiernos, laboratorios científicos, empresas...). Pero también
pueden ser recuperados en la web, ser puestos a disposición del público por las administraciones gubernamentales
de diversas escalas, o bien por las empresas que ofrecen sus datos por razones filantrópicas. Contrariamente a las
tres fases anteriores (producción, enrutamiento y búsqueda), el análisis automático de grandes masas de datos
raramente se encuentra en manos de usuarios finales de manera gratuita e intuitiva. En el 2013, estos análisis
automáticos todavía están, en su mayoría, reservados a las instituciones ricas y dotadas de fuerte capacidad técnica.
Los periodistas ubican los prometedores conjuntos de datos proporcionados por los gobiernos, las
organizaciones de producción de estadísticas o de otras instituciones. Analizan estos datos mediante algoritmos
apropiados, para, finalmente, visualizar y explicar los resultados a sus lectores.
En el dominio de la comunicación organizativa y de la “gestión del conocimiento “, se considera cada vez más
que una buena gestión social de los conocimientos emerge, de manera ascendente, de las actividades personales de
los miembros de la organización para manejar sus propios conocimientos. La empresa o la administración se vuelve,
así, un medio social que facilita tres procesos complementarios. En primer lugar, sus miembros, sus clientes y sus
socios acumulan datos comunes codificando el conocimiento que les resulta útil para ellos. En segundo lugar, cada
uno puede acceder a esos datos en el momento oportuno. En tercer lugar, las conversaciones abiertas entre los
participantes en la red facilitan tanto la codificación del conocimiento destinada a la colectividad como su
apropiación personal en la situación de trabajo.
En su versión conexionista, los cursos abiertos en línea “masivos” (MOOC12) transcienden la educación a
distancia clásica para estimular el aprendizaje colaborativo en red, en el cual los estudiantes contribuyen a producir
el material pedagógico común sobre una multitud de plataformas interconectadas.
La mayoría de las formas de crowdsourcing, así como la comunicación y el reparto de ficheros “pair à pair”
(P2P) ilustran ese modelo de relación social en la cual una multitud de individuos se reúnen virtualmente alrededor
de un tesoro de datos comunes para - simultáneamente - enriquecerlo y explotarlo.
11
Ver sobre este punto, de Michael Nielsen, Reinventing Discovery: The New Era of Networked Science, Princeton University
Press, 2012
12
Massive open online course
asociaciones de todo tipo se apoyan, para sus desempeños cotidianos (administrativos, presupuestarios, legales,
estratégicos, etc.) en la gestión informatizada de datos digitales. Se pueden distinguir dos grandes tipos de datos
respecto a esto.
En primer lugar, los datos “internos” representan las instituciones para sí mismas. Esto incluye sus archivos,
sus habilidades o conocimientos clave, las operaciones en curso, así como la información sobre sus miembros,
clientes o beneficiarios. Las instituciones son generalmente responsables de la producción y del mantenimiento de
los datos sobre los cuales basan sus memorias y sus actividades cotidianas. Dichos datos son evidentemente
producidos y gestionados en función del sentido que les atribuye la institución, sentido que se encuentra en sus
finalidades y sus tradiciones.
En segundo lugar, los datos “externos “ son producidos por otras instituciones, y comprenden los medios de
comunicación tradicionales. Estos datos externos representan el ambiente de la institución y a menudo son objeto
de un trabajo de monitoreo científico, industrial, económico, político, estratégico y así sucesivamente. Para la
institución en cuestión, el fin de esta actividad de información es comprender su entorno, prever lo antes posible su
evolución y adaptarse a él - o de intervenir de manera proactiva. Como los datos externos son producidos y
organizados en función de finalidades o de ángulos de interpretación que no son los suyos, la institución debe
reintroducirlos - o re-categorizarlos - a su manera.
Es claro que la frontera entre los dos tipos de datos, internos y externos, es altamente permeable. Además,
las instituciones están cada vez más organizadas e interconectadas en redes a través de las cueles intercambian sus
datos y realizan una gran cantidad de transacciones en línea. Las instituciones se vuelven data-céntricas a medida
que se identifican cada vez menos con su infraestructura material (incluyendo también sus propias computadoras) y
su ubicación física, identificándose entonces cada vez más con el núcleo duro de sus datos estratégicos así como con
el modo de codificación y procesamiento de datos - internos y externos - que son necesarios en el mantenimiento de
su integridad. Estos datos fundamentales - y los algoritmos que los tratan - pueden ser virtualizados en las nubes de
internet, permitiendo así a los colaboradores de la institución acceder a ellos en todo momento y lugar.
Las revueltas árabes del 2011 han utilizado los teléfonos inteligentes y las redes sociales para su organización
interna y la difusión de sus mensajes14. Simétricamente, las dictaduras afectadas han tratado de cortar o codificar las
redes, han infiltrado las comunidades en línea para obtener información sobre los revolucionarios y se han dedicado
a actividades de contra-propaganda en el medio digital. Ya no hay un movimiento social en el mundo que no utilice
actualmente el poder de coordinación y difusión de las redes sociales. Tanto los gobiernos como los servicios de
inteligencia y la policía utilizan las mismas herramientas de difusión, explotación, manipulación y análisis de datos.
Cualesquiera que sean los campos en presencia, siempre se trata de analizar e influenciar la memoria a corto
plazo (la actualidad) y a largo plazo (la historia) de las comunidades concernientes, memoria que se encarna
actualmente en los flujos de provisión de datos digitales. Del lado del análisis, se intenta percibir las señales débiles y
los patrones de evolución que anuncian el futuro a pesar de que no atraen la atención de la mayoría. Del lado de la
influencia, se intenta hacer olvidar, pasar por alto o desacreditar ciertos datos, pretendiendo, en cambio, atraer la
13
Ver como ejemplo: “ Beware the Smart Campaign “ de Zeynep Tufekci, en New York Times, 16 de Noviembre de 2012.
14
Ver como ejemplo, de Reda Benkirane, The Alchemy of Revolution: The Role of Social Networks and New Media in the Arab
Spring, Geneva Centre for Security Policy GCSP Policy Paper 2012/7.
atención hacia los datos “favorables” (incluso, crearlos artificialmente) y otorgarles un máximo de credibilidad. Los
medios de comunicación clásicos (los grandes diarios y la televisión) ya no son más que fuentes de datos como las
otras. Estas fuentes mediáticas son particularmente poderosas debido a su medio y su credibilidad, pero sus efectos
se miden actualmente en su capacidad diferencial para influenciar la conexión afectiva de la gente y de los grupos
con la masa global de datos.
Hasta el siglo XIX, los ejércitos se dividían en ejército de tierra y de mar. El siglo XX ha visto el desarrollo de
un tercer ejército mayor: la aviación. Desde la segunda década del siglo XXI, un cuarto ejército ha hecho su aparición
en las fuerzas de defensa de la mayoría de las grandes y medianas potencias: el arma informática. La ciberguerra
comprende obviamente el espionaje, la desinformación y los juegos de simulación. Pero no se limita a eso porque,
en ese caso, hubiera podido permanecer confinada a la función de información, de propaganda y de reflexión
estratégica de las otras armas. Además de las funciones clásicas que han sido nombradas, los ciber-ataques apuntan
al bloqueo de las redes y la destrucción de los datos clave de la fuerza militar, el gobierno y la economía de las
potencias enemigas, así como la toma de control de instalaciones e infraestructuras a distancia. Esta toma de control
puede llegar incluso al sabotaje físico de las instalaciones y a la total interrupción de las infraestructuras. Del lado de
la defensa, la nueva arma tiene por misión proteger las redes y los datos estratégicos de las instituciones militares,
gubernamentales, industriales y económicas de un país. No hace falta decir que una de las habilidades más
esperadas de los ciber-ninjas es la concepción y la programación de algoritmos. Cabe señalar, además, que todas las
ramas de los ejércitos cuentan con capacidad de comunicación, coordinación e información (embarcadas,
interactivas y en tiempo real) que reproducen – aumentadas - las funciones de los medios de comunicación social
civiles.
Hoy en día, la mayor parte de los algoritmos que gestionan el enrutamiento de mensajes y la búsqueda de
datos son opacos, puesto que son protegidos por el secreto comercial de las grandes compañías de internet. En
cuanto a los algoritmos de análisis, en su mayoría, no solo son opacos sino que también están fuera del alcance de la
mayoría de los internautas por razones a la vez técnicas y económicas. Pero es imposible producir información fiable
mediante métodos secretos. Obviamente debe considerarse el estado contemporáneo del medio algorítmico como
transitorio. Solo se podrá domesticar culturalmente el crecimiento exponencial de datos - y luego transformar esos
datos en conocimiento reflexivo - mediante una mutación cualitativa del medio algorítmico. Pero para entender
cómo llegamos allí, y sobre todo para prever la manera en que la sociedad data-céntrica y el medio algorítmico
continuarán desarrollándose en el futuro, debemos previamente explorar la esencia arbitraria de la manipulación
automática de símbolos.
3.1.2 Operadores
A continuación debe imaginarse un conjunto de herramientas o de micro-máquinas especializadas en la
ejecución de ciertas tareas. Llamemos a estas herramientas especializadas “operadores “. Los operadores están
precisamente identificados y actúan de manera completamente determinada y mecánica, siempre de la misma
manera. Obviamente debe existir una correspondencia o una adecuación entre la codificación de los datos y el
funcionamiento de los operadores.
Los operadores han sido en primer lugar identificados dentro de las computadoras: son aquí circuitos
electrónicos elementales. Pero uno puede considerar el procesador de datos - por más complejo que sea - como una
<< caja negra >> que oficia de operador. Es así como el protocolo de internet, al dirigir sus equipos en la red, ha
abierto al mismo tiempo un sistema universal de direccionamiento de operadores.
3.1.3 Contenedores
También debe imaginarse un depósito de datos cuyas casillas o “contenedores” elementales son
perfectamente direccionadas: un sistema de registro lógico ofreciendo una superficie lisa para la escritura, el
borrado y la lectura. Está claro que la codificación de los datos, las operaciones que les son aplicadas y sus modos de
registro deben ser armonizadas para optimizar los procesamientos.
3.1.4 Instrucciones
El cuarto y último aspecto de un algoritmo es un conjunto ordenado de reglas - o un mecanismo de control - que
organiza la circulación recursiva de los datos entre los contenedores y los operadores. La circulación es iniciada por
un flujo de datos que sale de los contenedores hacia los operadores apropiados, y luego dirige los resultados de las
operaciones hacia los contenedores precisamente direccionados. Un conjunto de pruebas determina la elección de
los contenedores desde dónde extraer los datos a procesar, la elección de los contenedores desde dónde registrar
los resultados, y la elección de los operadores. La circulación de datos acaba cuando una prueba ha determinado que
el procesamiento finalizó. Entonces, el resultado del procesamiento - a saber: un conjunto de datos codificados - se
encuentra en una dirección precisa del sistema de contenedores.
Me voy a apoyar ahora en el análisis que acabo de hacer de la estructura íntima de los algoritmos para
analizar la evolución del medio algorítmico. Veremos que las grandes etapas de crecimiento de este medio se
relacionan precisamente con la aparición de nuevos sistemas de direccionamiento y codificación, tanto para los
contenedores de datos como para los operadores.
En esta etapa, los datos procesados por los algoritmos siempre son arbitrados por los contenedores de las
redes locales pero - además de esta dirección - los operadores tienen una dirección física universal en la red mundial.
En consecuencia, los operadores algorítmicos pueden “colaborar“ y el abanico de tipos de procesamiento y
aplicaciones se ensanchan considerablemente.
La década 2010-2020 ve el comienzo de la transición hacia una sociedad data-céntrica. En efecto, a partir de
esta fase del despliegue social del nuevo medio, las interacciones entre las personas usan, en su mayoría, el canal de
internet, ya sea para la pura y simple sociabilidad o para la información, el trabajo, la búsqueda, el aprendizaje, el
consumo, la acción política, el juego, y así sucesivamente. Paralelamente, los algoritmos interconectan de manera
creciente las relaciones entre la gente, las relaciones entre los datos y las relaciones entre la gente y los datos. El
aumento de conflictos sobre la propiedad y el libre acceso a los datos, así como en torno de la apertura y la
transparencia de los algoritmos, son señales seguras de la transición hacia una sociedad data-céntrica. Sin embargo,
como dije al comienzo de este capítulo, a pesar de su papel ya significativo, los algoritmos aún no son vistos en la
consciencia colectiva como el nuevo medio de comunicación y del pensamiento humano.
Si los datos de hoy corresponden a fenómenos de la ciencia clásica, entonces necesitamos de metadatos
computables e interoperables que hagan lo mismo con las teorías y los modelos explicativos de la ciencia clásica.
IEML se presenta justamente como una herramienta algorítmica de teorización y categorización capaz de explotar la
potencia de cálculo de la “nube“ y de aportar un indispensable complemento a las recientes herramientas
algorítmicas de observación de patrones.
IEML propone un método automatizado de definición de conceptos y de relación entre conceptos. Los datos
categorizados en IEML podrían ser tratados de manera mucho más eficaz que hoy en día, ya que las categorías y las
relaciones semánticas entre categorías entonces se volverían no solamente computables sino automáticamente
traducibles de un lenguaje a otro15. Además, IEML permitirá comparar los resultados proporcionados para el análisis
del mismo conjunto de datos según reglas de categorización (¡de teorías!) diferentes.
Cuando este sistema simbólico de análisis y síntesis conceptual esté, democráticamente, en manos de todos,
se traducirá automáticamente en todas las lenguas y se manipulará fácilmente a partir de una simple tableta, y
entonces el océano de datos podrá ser domesticado y el medio algorítmico será directamente experimentado como
una herramienta de aumento cognitivo - personal y social - y no solamente como un instrumento de difusión. Sobre
15
Para ser más preciso, las redes semánticas hipertextuales podrían ser traducidas automáticamente para todas las lenguas
figuradas en el diccionario multilingüe de IEML.
la base de este metalenguaje abierto de generación y reconocimiento de redes semánticas, un ciclo auto-generador
de experimentación colectiva y de creación de herramientas llevará al despegue del medio algorítmico del futuro.
Traducción del francés realizada para la cátedra de Teoría y Medios de la Comunicación, Facultad de Filosofía y
Letras, UBA. Supervisión: Carla Ornani
Pierre Levy (2013). Publicado en la revista Societés, París.
El medio algorítmico
4. La revolución no ha terminado