Desafíos para la justicia social en la era digital
Sally Burch, Osvaldo León-ALAI|
Esta época de cuarentenas sin duda se nos hace más manejable cuando tenemos acceso a Internet, el celular, las apps, plataformas, redes sociales digitales, que facilitan poder informarnos, comprar, charlar, trabajar, educarnos, todo desde la casa.
Pero el alivio de valernos de herramientas que permiten solucionar estos problemas del día a día hace que fácilmente perdamos de vista cómo se va profundizando nuestra dependencia de ellas y cómo, cada vez más, nuestras interacciones se desplazan hacia espacios bajo control monopólico, diseñados para el lucro. Mucho menos aún estamos conscientes del entramado de poder que está detrás de estas herramientas y de sus implicaciones para la vida de nuestras sociedades.
En efecto, con la pandemia global estamos asistiendo a una mayor consolidación de las actividades económicas apuntaladas en plataformas que se sustentan en Internet. Tras una fase inicial como factor habilitador clave para la expansión de la globalización –en tanto contribuye a que se expanda el espacio geográfico subordinado al nuevo ciclo de acumulación del capital1–, en tres décadas, Internet ha pasado a ser una parte esencial de la cuarta revolución industrial en curso.
En este trayecto, una línea transversal sustantiva es justamente el impacto que alcanza en la vida cotidiana de las personas, con el consecuente potencial de control social. Para lo que aquí concierne, vale destacar dos aspectos. El primero es que con Internet llega un soporte tecnológico que abre la posibilidad de comunicarse de muchxs a muchxs (con la radio y la televisión se establece de unx a muchxs), en tiempo real y a los diversos cantos del planeta.
El segundo, su tipología reticular, que se engarza con una dinámica social de replanteamientos organizativos en términos de flujos e interconexiones bajo la modalidad de “redes”. Esta forma de articulación en “red” (que, de hecho, ha existido en otros tiempos y espacios) precede a la llegada de la Internet, pero con ésta se profundiza su alcance, velocidad y complejidad.
Bajo estas características, adquiere una creciente importancia la dimensión relacional de la comunicación, que implica reconocimiento, estima, etc., siendo que en la configuración unidireccional mass-mediática prevalece el contenido. Y es en este contexto que se da la expansión de las “redes sociales” digitales.
Estas “redes” en rigor son plataformas empresariales que permiten intercambios en línea, potenciando la dimensión relacional de la comunicación, donde lxs usuarixs se convierten en los soportes clave para su supervivencia; un mecanismo de explotación del trabajo de usuarixs, que se complementa con la apropiación de los datos que estxs usuarixs ofrecen y cuya venta (una vez procesados con algoritmos) está en la base del gran negocio.
Es más, se acompaña de un sutil encuadramiento bajo los parámetros ideológicos predominantes, pautados por el consumismo, la competitividad, el individualismo como valores de superación, bajo un ambiente altamente emotivo.
Hoy, con la pandemia y el aumento vertiginoso del uso de Internet, se ha intensificado un proceso de digitalización que ya estaba en camino. De hecho, mientras hemos estado encerradxs en nuestros hogares, con miedo a salir, las grandes empresas de Silicon Valley han estado aprovechando la crisis para adelantar su respuesta de “shock” tecnológico.
Como reporta Naomi Klein2, en mayo se reconoció que Eric Schmidt, presidente ejecutivo (y ex CEO) de Alphabet Inc. (Google), está negociando con el Municipio de Nueva York un proyecto para integrar la tecnología digital de punta en cada aspecto de la vida de la ciudad –educación, salud, comercio, y mucho más–. (Una iniciativa parecida ya se venía negociando con Toronto, como el prototipo de ‘ciudad inteligente’ Google, pero fue abandonada hace poco debido a múltiples preocupaciones sobre privacidad y dudas respecto a los beneficios reales para la ciudad).
Por su parte, el gobierno canadiense ha firmado un contrato con Amazon para la entrega de equipamiento médico; algo que el sistema público de correos pudo haber manejado. Son apenas unos pocos ejemplos de cómo estas empresas se están posicionando gracias a la pandemia.
Desde antes de la pandemia, Schmidt ha estado presionando para que el gobierno estadounidense haga billonarias inversiones para desarrollar la capacidad tecnológica del país, a fin de poder competir con China. Pero chocó con cuestionamientos desde el Congreso y otras instancias.
Al decir de Klein: “la democracia –esa participación pública inconveniente en el diseño de instituciones y espacios públicos críticos– se estaba convirtiendo en el mayor obstáculo para la visión que Schmidt estaba promoviendo […] Ahora, estas empresas ven claramente su momento para barrer con todo ese compromiso democrático”. Con tecnología proponen solucionarlo todo.
No piensan preguntar a lxs estadounidenses si prefieren que sus gobiernos inviertan en telemedicina y teleducación, o más bien en contratar más enfermeras, con equipo de protección, para visitas a domicilio, más profesores para reducir el número de alumnos en las aulas…
No cabe duda de que el mundo se va a digitalizar cada vez más. La cuestión es bajo qué modelo: ¿Este modelo empresarial que actualmente pasa a ser predominante, que profundiza cada vez más la incursión en la vida íntima de las personas para extraer valor de sus datos, vulnerando la privacidad y la democracia?; ¿O un modelo más centrado en la justicia social, que garantice derechos, otorgue potestad sobre los datos a quienes los generan, y desarrolle tecnología privilegiando el interés público?
Entender y visibilizar esta dicotomía y buscar respuestas, no solo es hoy una lucha social importante y urgente en sí, sino que es una condición clave de todas las luchas por justicia social, siendo que cada vez más, el terreno digital es donde nos nutrimos de ideas, donde se disputan sentidos, se imponen narrativas y se construye poder.
En las líneas que siguen, exploraremos algunas características de estos modelos y enfocaremos en tres de los múltiples ámbitos de su aplicación –vigilancia/economía de los datos, educación y trabajo–, partiendo de las implicaciones de la actual pandemia, para explorar las perspectivas y alternativas.
Vigilancia y economía de los datos
Hoy, poder circular por las ciudades, con la ayuda de una app que señala en tu celular si has estado en contacto con alguien portador del coronavirus, se vuelve un sueño de “libertad”. ¡Algo impensable hace pocas semanas! La cuarentena nos está aclimatando a la vigilancia.
Diversos gobiernos, de la mano de empresas digitales, están explorando o ya implementando estas apps. A menudo se cita como ejemplo a Corea del Sur, donde el sistema parece haber ayudado a controlar la pandemia (en combinación con tecnologías de reconocimiento facial en espacios públicos y extensas pruebas de contagio).
Google y Apple, junto con algunos gobiernos, están colaborando en un sistema que establece una comunicación entre celulares cercanos mediante Bluetooth, que permite también intercomunicar entre teléfonos con sistemas Android e iPhone.
Pero en cada país hay diferencias en cuanto a si el uso de la app es (será) obligatorio o no, si la información permanece en el dispositivo de cada usuario o centralizada en una base de datos manejado por el gobierno o una empresa; qué información personal se recopila, qué se hace con esa información; y qué pasará con estos sistemas luego de la pandemia3. Estas inquietudes generan resistencia en muchxs usuarixs, aparte de que hay varias dudas sobre la efectividad de los sistemas.
Por su parte, la asociación europea de hackers, Computer Chaos Club, ha desarrollado un decálogo con recomendaciones4 para evitar abusos en las apps de trazabilidad de contactos con fines epidemiológicos, donde se recomienda que la tecnología utilizada debe reunir diez condiciones, para proteger derechos de lxs usuarixs.
Ellos son: propósito epidemiológico; uso voluntario, privacidad; transparencia; gestión descentralizada de los datos; recolección sólo de datos indispensables; anonimato de lxs usuarixs; no creación de perfiles de sus movimientos; claves cifradas temporales y no vinculables; y un mecanismo que impida que las comunicaciones puedan ser monitoreados por terceros.
Es importante que se esté desarrollando un debate público sobre el tema, porque demuestra que es posible desarrollar tecnologías con sentido social y con sujeción a derechos, sin la imposición de una vigilancia panóptica del Estado. No obstante, este debate suele pasar por alto que las grandes empresas digitales –el llamado ‘Big Tech’– ya nos han impuesto, en la vida diaria, sistemas de vigilancia mucho más invasivos y cuyo alcance es poco conocido por la mayoría de la gente.
Algo se conoce sobre el uso de nuestros datos para enviarnos publicidad acoplada a nuestro perfil, lo cual puede ser a veces molesto, pero como ya nos hemos acostumbrado a una vida inundada de publicidad, a lo mejor no nos parece tan grave, a cambio de los servicios que recibimos “sin costo”. Pero en realidad la invasión de nuestra vida íntima es mucho más profunda.
El modelo de negocios que Shoshana Zuboff bautizó como surveillance capitalism (capitalismo de vigilancia) consiste en apropiarse en forma unilateral de la experiencia humana como materia prima gratuita, para transformarla en datos comportamentales. Fue inaugurado por Google hacia inicios de este siglo, desarrollado luego también por Facebook y posteriormente se ha ido extendiendo ampliamente en el sector digital.
Si bien una pequeña parte de esta materia prima extraída es destinada para mejorar el servicio respectivo (y así seguir atrayendo usuarios), lo demás constituye lo que Shoshana Zuboff denomina el “excedente comportamental” (behavioral surplus) que, mediante inteligencia artificial, es transformado en productos de predicción5. Estos productos son vendidos en “mercados de futuros del comportamiento”, a los verdaderos clientes de estas empresas.
Éstos son: sectores empresariales o instituciones que anhelan tener mayor seguridad para sus inversiones o su planificación6, sobre la base de predicciones lo más fiables posibles7. Con el tiempo, se descubrió que la mejor manera de tener predicciones certeras del comportamiento humano era incidir en el mismo, con estrategias para motivar, persuadir o aguijonear hacia comportamientos que den resultados rentables (motivar un “me gusta” a un producto; inducirnos a comprar un medicamento ante un percance de salud; influenciar el voto; mantenernos siempre pendientes del celular…).
Entonces, para ello, no les basta saber dónde estamos o qué comunicamos, sino que requieren conocer a fondo nuestros hábitos e intereses, nuestra salud, nuestro carácter, nuestros pensamientos. Con la Internet de las Cosas, estas posibilidades se expandirán exponencialmente.
Probablemente es Facebook quien ha llegado más lejos en este sentido, al haber logrado condicionar toda una generación de jóvenes (“nativos digitales” o “Generación Z”) a una vida de dependencia compulsiva de sus plataformas (que incluyen Instagram y Whatsapp), en la fase de su vida cuando son más influenciables y vulnerables ante las presiones sociales y la aprobación de sus pares.
Todo ello, con fines nada educativos ni sociales –al contrario, se ha mostrado que genera mucha infelicidad, estrés y angustia– sino llanamente para maximizar el lucro privado.
Otro ángulo para entender este fenómeno es pensarlo como si fuera una nueva forma de “cerco”, parecido al cerco a las tierras comunes que permitió convertirlas en mercancías, siglos atrás en Europa. Prabir Purkayastha argumenta que, al “cercar” los datos personales, incluyendo las interacciones sociales, y transformarlos en demografías de audiencia, las empresas han podido convertir en mercancía algo que antes no tenía valor monetario alguno8. Y no es solo los datos.
En el caso de la llamada “economía participativa” (sharing economy), empresas como Uber o AirBnB han desarrollado un modelo de negocios que implica cercar la esfera informal de la economía. Con el discurso de convertir a lxs propietarixs individuales de vehículos o casas en “contratistas independientes”, en realidad lo que hacen es cercar su propiedad privada para sacarle el lucro con nuevas formas de trabajo precario.
Entonces, si pensamos que las violaciones de derechos y la intimidad por parte de estas empresas son excesos ocasionales que se pueden corregir con una mínima regulación, estamos pasando por alto el hecho de que la invasión de la intimidad es el núcleo de su modelo de negocios. Y el hecho es que siempre van a buscar la manera de seguir extrayendo datos comportamentales de sus usuarixs.
Que conozcamos poco esta realidad no es de extrañar: son estrategias manejadas con el máximo de sigilo, porque saben que, de lo contrario, generarían rechazo y perderían efectividad. Incluso han desarrollado estrategias para que nos vayamos resignando de a poco a ello, como analiza en detalle Zuboff.
El poder que están acumulando estas empresas no tiene precedentes en cuanto a su alcance, velocidad de desarrollo y concentración monopólica. Es evidente que los individuos se sienten impotentes para enfrentarlo; incluso los gobiernos y legisladorxs de los países más poderosos encuentran graves limitaciones para hacerlo.
El Reglamento General de Protección de Datos (GDPR) de la Unión Europea, de alguna manera se ha convertido en un estándar para la legislación en ese campo y está sirviendo de modelo, para otros países. Entre otros en América Latina, ya que tener una legislación compatible es un requisito para que las empresas de terceros países puedan interactuar con clientes europeos.
Es un área donde conviene estar vigilantes e intervenir ante los parlamentos para asegurar una legislación óptima en este sentido (y contrarrestar las presiones que, en sentido contrario, provienen de EEUU y sus empresas). Pero ello no basta. Primero porque, sobre todo en países de poco peso económico, será muy difícil llevar a las empresas ante la justicia (Europa ha realizado varios juicios, largos y costosos, obteniendo algunas victorias con fuertes multas; pero aun así las empresas del Big Tech siguen haciendo lo suyo).
La segunda razón es que, por importante que sea la protección de datos, deja intacto el aspecto medular del modelo, que es la economía de los datos, o sea los datos como recurso económico. Es por ello que la coalición mundial Just Net, en su Manifiesto por la Justicia Digital9, plantea que los individuos y las comunidades deben ejercer, por ley, los derechos económicos primarios sobre los datos que generan.
Los datos tienen muy poco valor individualmente: adquieren valor cuando se acumulan en grandes cantidades y se procesan con algoritmos complejos. Por lo mismo, es urgente establecer el principio de la propiedad colectiva/comunitaria y su derecho a definir quién puede usar qué datos para qué fines (incluyendo las garantías de inviolabilidad de los datos personales íntimos).
Ello contrarrestaría la situación actual –donde las empresas digitales proclaman la propiedad por defecto de los datos que recolectan–, para abrir la puerta para nuevos regímenes de propiedad que, por un lado, podrían garantizar su uso en función del interés público, y por otro, permitiría que los países puedan desarrollar su propia industria digital y de inteligencia artificial, reduciendo la dependencia frente a las economías más desarrolladas. No obstante, hasta ahora ningún país tiene una legislación en este sentido, si bien India y algunos otros países lo están considerando10.
Un obstáculo para este tipo de legislación son los acuerdos comerciales –algunos ya firmados como el T-MEC (de Norteamérica) y el TPP11 (Transpacífico); otros en discusión, como la propuesta de comercio electrónico en la OMC– que exigen el libre flujo transfronterizo de datos (es decir, el libre extractivismo); lo cual sería un motivo más para rechazar la negociación y firma de tales acuerdos.
La trampa de las plataformas educativas
Con la cuarentena en los centros de estudio se ha multiplicado el uso de herramientas digitales para la educación a distancia, si bien con la gran limitación de que muchxs alumnxs (incluso de nivel universitario) no tienen acceso a Internet en casa, a veces ni a una computadora o a un Smartphone, con lo cual se exacerba la discriminación a sectores de menos recursos. En muchos casos, para responder ante la emergencia, lo más fácil ha sido recurrir a las plataformas y programas de teleducación que ya ofrecían las grandes corporaciones digitales: es el caso tanto de Microsoft como de Google.
Estas empresas tecnológicas proporcionan servicios digitales a través de plataformas educativas, contenidos y profesorados; incluso, en ciertos casos, laptops o tablets de bajo costo, pre-programados para alumnxs. Es de prever que, en la post pandemia, se expanda el uso de tales herramientas.
Las autoridades educativas las ven como una solución para abaratar costos de la educación, en países cuyo presupuesto está resentido por la crisis económica; y eso, tanto en el sector público como también en escuelas privadas. Varias experiencias demuestran que cuando estas plataformas son utilizadas para reemplazar el trabajo de lxs profesorxs o degradarlos a un rol técnico, la tendencia es que se reduce la calidad de la educación.
Los problemas que surgen incluyen la falta de capacitación del magisterio para trabajar con estas tecnologías, siendo que implican nuevas formas de aprendizaje para lxs alumnxs. Además, confiar en los contenidos que ofrecen estas plataformas implica reemplazar una pedagogía contextualizada desde la realidad local por un currículo generado por el sector privado bajo un modelo único para todas y todos.
Es más, los contenidos no necesariamente son de calidad y suelen cubrir áreas académicas limitadas. Otro problema aparece cuando la plataforma no permite al docente un control para escoger qué utilizar y qué no, y cómo, o para modificar el funcionamiento de las herramientas, etc.
Otra preocupación es que el uso de estas plataformas comerciales implica ceder información a las empresas, sin que ellas rindan cuentas de cómo la utilizan. Y hay casos flagrantes de abuso. La plataforma Google Education es utilizada por más de la mitad de los centros educativos de EEUU (llega a unos 80 millones de estudiantes y profesorxs) y una cantidad significativa también en otros países.
En febrero de este año, el Fiscal General del Estado de Nueva México inició un juicio11 contra Google por valerse de esta plataforma para recolectar ilegalmente información personal de millones de niñxs menores de 13 años –incluso desde la edad del jardín de infantes–, sin el consentimiento de sus padres, para fines que no tienen relación con la educación.
Hace unos 5 años, Google perdió un juicio por una causa similar en EEUU, donde reconoció que estaba utilizando la información de niñxs para fines publicitarios; pero desde entonces, en su promoción de la plataforma se ufana de adherir estrictamente a las leyes de privacidad de la niñez. Pero este nuevo juicio presenta claras evidencias de que no es así y que incluso compromete información muy sensible, ya que los niños y niñas a menudo consultan en línea sobre temas íntimos que no se atreven a preguntar a sus padres o profesorxs.
Ahora bien, este panorama de las plataformas educativas no significa que la tecnología digital no pueda ser un soporte valioso para la educación, y de hecho hay muchas experiencias positivas en este sentido. Con programas y usos adecuados, puede servir, entre otros, para fortalecer el desarrollo profesional de lxs docentes y crear redes de intercambio y ayuda mutua; para compartir experiencias, recursos, etc.
O para que lxs profesorxs utilicen las aplicaciones digitales para crear sus propios recursos de enseñanza. Ya existe una variedad de plataformas, muchas de ellas sin costo, que responden a tales criterios. También existen herramientas para que lxs alumnxs puedan aprender creando sus propias interfaces y contenidos.
Gurumurthy Kasinathan señala que para adoptar una tecnología educativa es clave analizar: a quién beneficia, y quién la controla12. Y en tal sentido enumera algunos principios, entre ellos: que el uso de la tecnología apoye el logro de los objetivos educativos específicos.
Ellos son que ésta pertenezca a las escuelas y profesorxs, quienes deben poder realizar los cambios que requieran (por lo mismo, se recomienda el uso de herramientas no comerciales y de software libre); que los datos generados a través de las aplicaciones permanezcan bajo el control de quienes los crearon (y no en la ‘nube’ comercial); que el uso de las tecnologías fortalezca la aptitud de agencia del o de la docente, abriendo mayores posibilidades pedagógicas y no estrechándolas.
Y quizás lo más importante: que la educación sea diseñada para que florezca la inteligencia humana, al contrario de utilizar la inteligencia digital como reemplazo de ella.
En el fondo, la problemática tiene que ver con la concepción misma de la educación, la cual, bajo el esquema neoliberal, tiende a separar capacidades de conocimientos, a enrumbar la niñez de sectores populares cada vez más temprano hacia una formación vocacional determinada por intereses de la industria, y muy poco a fomentar la capacidad de pensar y desarrollar conocimiento.
La precarización del trabajo
Otra área donde se está resintiendo fuertemente el impacto de la pandemia es la del trabajo. El aumento de los despidos, del teletrabajo y del trabajo de plataformas para entregas a domicilio son algunas de las expresiones más evidentes. Y como la crisis económica ya estaba antes de la pandemia, se puede anticipar para el periodo post pandémico un aumento significativo del desempleo, a la par de una mayor precarización del trabajo.
La experiencia del teletrabajo durante la cuarentena (que en América Latina, se estima abarca un 24% de la fuerza laboral) bien podría abrir las puertas para una mayor expansión de esta forma de trabajo a la postre. Si es el caso, será urgente, sobre todo para los países del Sur, adoptar nuevas normativas para garantizar los derechos laborales bajo esta modalidad.
Tiene que ver, entre otros aspectos, con el equipamiento a utilizar (de quién es, quién es responsable si se daña…); con la vigilancia (si la empresa puede o no monitorear lo que hace el trabajador en su domicilio, bajo qué parámetros); los horarios de trabajo y los tiempos de descanso, con garantías para el derecho a la desconexión laboral (por motivos de salud física y mental), entre otros aspectos13.
Con la escasez de empleos estables es previsible que un mayor número de personas, sobre todo jóvenes, busquen soluciones de trabajo en plataformas digitales. El transporte de particulares y las entregas a domicilio son susceptibles de seguir en aumento, trabajos que en la mayoría de los países carecen de derechos y protección social.
Otra opción la constituyen las plataformas de crowdsourcing (externalización abierta de tareas), donde se contratan tareas digitales puntuales. La plataforma Mechanical Turk, de Amazon, por ejemplo, ofrece a las empresas “una fuerza de trabajo mundial sobre demanda, disponible 24/7”, para realizar “HITs” (tareas de inteligencia humana), para aquel tipo de tareas que aún le cuesta más a la inteligencia artificial que a un ser humano; muchas de ellas muy repetitivas y aburridas, si bien otras requieren mayores capacidades.
Se paga por HIT, o tarea, una suma definida por el contratante (¡mínimo 1 centavo de dólar!), más 20% a la plataforma. O sea, representa una comodificación al extremo del trabajo humano (donde el contratante desconoce la identidad del trabajador) y una forma de explotación que sería impensable en el mundo físico (con contratos que pueden durar incluso solo pocos minutos).
Algunos países del Norte, que tienen un marco de derechos de protección laboral más desarrollado, han reglamentado que lxs trabajadorxs de plataformas de transporte, por ejemplo, deben ser considerados empleados. No obstante, por lo general, estas labores forman parte de una tendencia más amplia hacia la precarización laboral (vinculada también a la automatización y robotización, la flexibilización de leyes laborales, etc.).
En muchos países del Sur el trabajo informal es mayoritario; en esos casos, de alguna manera el trabajo de plataformas puede representar una cierta formalización del trabajo informal, aunque no conceda nuevos derechos14. Además, en estos países, las empresas de plataformas suelen utilizar un complejo entramado de acuerdos de tercerización, lo que hace casi imposible que un/a trabajador/a haga cualquier reclamo ante la empresa transnacional de origen de la plataforma, con lo cual ésta se sustrae de cualquier responsabilidad.
Por último, ante esta abdicación, le corresponde al Estado local asegurar derechos básicos, como la afiliación al seguro social. En todo caso, la organización de estxs trabajadorxs sería un paso importante, que ya se está dando en algunos lugares; pero es más factible en el caso de servicios físicos como el transporte –vinculados a una localidad–, que por ejemplo para lxs trabajadorxs de plataformas de crowdsourcing internacional.
Es más, no es solo la fuerza de trabajo que se explota. Los datos que generan estxs trabajadorxs (por ejemplo, en el caso de Uber, datos sobre rutas, tráfico, demanda, etc.) son cercados y expropiados por la empresa como su propiedad privada y principal fuente de riqueza, privando así a lxs trabajadorxs de una fuente de valor que ellxs (y lxs usuarixs) han generado, sin reconocer ningún derecho al respecto, ni a ellxs, ni al país donde se generó esta fuente de valor.
Existen algunas experiencias de crear plataformas de trabajo cooperativas o comunitarias; algunas de ellas mantienen principios minimalistas en cuanto al manejo de datos, respetando la privacidad de trabajadorxs y usuarixs. Una dificultad es lograr que la clientela los apoye, ya que es difícil competir en calidad de servicio con las megaempresas.
En otros casos, las cooperativas optan por seguir el modelo dominante de construir perfiles de los consumidores y adoptar estrategias de focalización en base a la extracción de datos, en un intento por superar a las grandes plataformas en su propio modelo de negocio15.
En cuanto al trabajo en el sector público, es cada vez más frecuente que las autoridades, sea de gobiernos nacionales o locales, contraten servicios a las empresas digitales transnacionales (en educación, salud, manejo del tráfico, etc.), lo que suele dar lugar a una privatización de facto de estos servicios, desplazando a servidores públicos y concentrando una gran masa de datos públicos en manos de estas empresas.
Datos que serían de gran utilidad para la planificación y organización de las políticas públicas, como el caso, por ejemplo, de datos epidemiológicos para el desarrollo de vacunas. No es lógico, ni legítimo, que las autoridades no puedan acceder a estos datos o que tengan que pagar por usarlos, pero muchas veces es lo que ocurre.
O bien puede suceder que se genere tanta dependencia de una empresa monopólica en ciertos ámbitos (por ejemplo, en servicios de las llamadas ciudades inteligentes) que se vuelve casi imposible la desvinculación, porque se perdería toda la acumulación de datos y conocimiento.
Esto nos lleva de nuevo a la pregunta de arriba: ¿a quién pertenecen los datos? Parminder Jeet Singh destaca tres recomendaciones para lxs trabajadorxs del sector público, para contribuir al desarrollo de un modelo tecnológico con un sentido de justicia social16.
Primero, trabajar junto con fuerzas progresistas a nivel mundial para diseñar un modelo alternativo de sociedad y economía digitales, contemplando los roles del sector público y privado, y con regulación nacional que favorezca particularmente a los pequeños actores económicos y los trabajadores. Segundo, interactuar no solo con el movimiento sindical, sino también con los pequeños actores de la economía digital, con miras a establecer los derechos colectivos o comunitarios sobre los datos.
Y tercero, ayudar a desarrollar una nueva visión y función para el sector público en una sociedad digital, especialmente en lo que respecta a los datos y la inteligencia digital como bienes públicos.
Agendas comunes
En suma, en los tres ejemplos que hemos desarrollado –y habría muchos más, como el agro, el comercio, la salud, la cultura, las ciudades– se entrecruzan hilos comunes, en particular: la urgencia de poner límites al poder desmesurado de las empresas digitales; la importancia de una legislación fuerte de protección de datos, de la privacidad y de los derechos ciudadanos y laborales, con medidas efectivas de implementación.
Y la necesidad de ir hacia regímenes de propiedad comunitaria de los datos. Ello apunta a la necesidad de agendas comunes y acciones coordinadas; no bastan aquellas específicas a cada sector.
Podemos añadir el desarrollo de tecnologías y plataformas alternativas, bajo control colectivo. Muchas ya existen, como hemos visto en el plano educativo.
Lo difícil es lograr masificar su uso, sobre todo frente a las presiones corporativas. Es particularmente complicado en el plano de las redes sociales digitales, donde lo que cuenta es estar donde está la masa de gente (amigxs, familiares, clientes), que son opciones individuales pero con efecto viral. Sin embargo, como ciudadanía, colectivamente tendríamos un enorme poder frente a estas plataformas, pues sin nuestra presencia y activa participación, se caerían como castillo de naipes.
Es urgente avanzar en el conocimiento, debate y comprensión de estos fenómenos para definir agendas comunes, ya que los cambios avanzan tan rápido y los poderes de facto se afincan tan amplia y profundamente, que luego será mucho más difícil lograr cambios17. Se nos plantea, entonces, la tarea de hacer conciencia, organizar, presionar y seguir creando alternativas desde un enfoque de justicia social.
* Burch es periodista británica-ecuatoriana, directora ejecutiva de la Agencia Latinoamericana de Información (ALAI). León es comunicólogo ecuatoriano, director de América Latina en Movimiento (ALAI).