Warning: Undefined array key "options" in /home/susanamorales/public_html/wp-content/plugins/elementor-pro/modules/theme-builder/widgets/site-logo.php on line 124

Vigilancia, privacidad e intimidad en internet: desafíos para el estudio de la apropiación tecnomediática

Presentación en II Jornadas de Sociología (UNVM, Argentina, 2018). Ofrecemos una primera lectura a la temática de la vigilancia informática, poniendo el foco en la centralidad del componente de software en nuestras sociedades y prácticas cotidianas.
CONG_Vigilancia, privacidad e intimidad

Susana Morales – Graciela Natansohn

Introducción

La presente ponencia aborda algunos aspectos vinculados al Proyecto de Investigación El desarrollo de software y los imaginarios en torno a mundos digitales. Aportes a la comprensión de controversias y pugnas en el marco de sistemas sociotécnicos de las tecnologías de la información y la comunicación.

Nos interesa poner en evidencia el papel del componente de software como elemento central en la constitución de nuestras sociedades y nuestras prácticas cotidianas. Este interés se vincula con una preocupación previa por la apropiación de tecnologías de la información y la comunicación que desborda la mirada, a veces ingenua, centrada en los usos de las mismas. 

En este sentido, a pesar de tomar nota de las tensiones que en general se ponen en juego en las prácticas de uso, entendemos que el análisis crítico de las tecnologías es más fructífero en la medida en que se trate de un abordaje paradigmático. ¿Qué significa esto? Significa que es insuficiente comprender una sola de las dimensiones de la apropiación, como podría ser la de los usos de tecnologías de la información y comunicación para descubrir en ellos los procesos de empoderamiento social. Por el contrario, es necesario conocer y describir otros aspectos que están en interrelación con los usos. Entre ellos, las características, el devenir histórico y el análisis prospectivo de las tecnologías en tanto objetos; es decir, los desarrollos técnicos. A su vez, las condiciones de disponibilidad, acceso, y producción tanto de los desarrollos como de los contenidos que ellos vehiculizan, fuertemente marcadas por el género, la clase, la raza y la localización geopolítica. También las políticas públicas en materia de usos sociales, de ciencia, tecnología y comunicación; los marcos regulatorios y las estrategias empresariales en torno al acceso y uso de tecnologías. Es decir, los usos no pueden ser comprendidos sin referencia a esos aspectos, como tampoco sin referencia a su vinculación con las ofertas, la lógica económica de funcionamiento y la estructura de la industria tecno-comunicacional. De tal manera que, en tanto agente privilegiado, la industria tecno-comunicacional provee direccionalidad a las prácticas de uso, sus sentidos y el componente imaginario que configuran y reconfiguran el contorno que van tomando nuestras sociedades.

En esa línea, un aspecto central en la definición de las modalidades de uso de tecnologías de la información y la comunicación que adoptan las personas, sean o no practicas lúcidas y de empoderamiento, es el componente de software. En este trabajo, pretendemos ofrecer una primera lectura a la temática de la vigilancia  informática (fundamentalmente a través de internet) (SIRI, Laura, 2015), posibilitada por aplicaciones de software, y tomar nota de su incidencia como obstáculo y como desafío para la apropiación social de tecnologías.

Prácticas de uso de tecnologías de la información y la comunicación: software y vigilancia

Día tras día nuestras sociedades y sus individuos están conformándose casi a la medida de las aplicaciones informáticas (diseñadas por la industria del software) que  vienen incorporadas en los dispositivos electrónicos, o se pueden adquirir de manera ágil y gratuita en las tiendas virtuales como las de los teléfonos celulares. Estas aplicaciones informan (dan forma) e instauran unas maneras de ser y actuar, de pensar, de trabajar, de imaginar, de aprender, de planificar proyectos, divertirse, hacer política, de amar, de comunicarse… en definitiva, de vivir y también de morir. Plantea Manovich (2013) que el software ha tomado el mando, la dirección de nuestra vida como sociedad. 

Hay por lo menos tres maneras en que el software de sistema, motores de búsqueda y aplicaciones definen y direccionan las prácticas cotidianas de usuarias/os.

En primer lugar, establecen lo que se puede o no se puede hacer con cualquier dispositivo tecnológico. Por otro lado, la interactividad que demandan y que permiten, va generando información -particularmente a través del uso de Internet-, acerca de los intereses y expectativas individuales de las/los usuarias/os. A partir del procesamiento de esos datos, las trayectorias de las personas en la red son inducidas y por ende, potencialmente condicionadas. Finalmente, y esto es quizás lo más grave, a partir de sofisticados algoritmos, los sujetos y las sociedades están sometidas a una vigilancia permanente, invisible y expandida. En palabras de Laura Siri (2016), el vigilantismo, el control, el rastreo de informaciones a partir del uso masivo de internet y sus dispositivos compromete el ejercicio de la ciudadanía y los derechos humanos. 

Datos sobre deseos, inclinaciones, conductas y hábitos de individuos y de poblaciones  constituyen «un inmenso, distribuido y polivalente sistema de rastreo y categorización de los datos personales que, a su vez, alimenta estrategias de publicidad, seguridad, desarrollo de servicios y aplicativos, dentro y fuera de estas plataformas” (Bruno, 2013, p. 9). Bruno propone la noción de vigilancia distribuida como aporte para esta discusión. La vigilancia existe como una función potencial que está inscripta en el propio engranaje y arquitectura de esos dispositivos -en el caso de las redes digitales de comunicación como internet y muchas de sus plataformas. Estas, a su vez, contienen en sus parámetros de funcionamiento regulares, sistemas de monitoreo de datos personales y control de flujos informacionales que responden a la lógica automatizada de programación a través de protocolos. 

Los sistemas de monitoreo son parte integrante de la eficiencia de esas plataformas, “que rastrean, archivan y analizan las informaciones ofrecidas por los usuarios y comunidades” (Bruno, op. cit. p. 32), y tienen como objetivo declarado optimizar tanto sus servicios como las relaciones entre usuarias/os.  

Sin embargo, la vigilancia a la que nos estamos refiriendo tiene como misión permitirle a quien la ejerce, ya sea desde el ámbito público o desde el privado, la producción de conocimiento sobre los vigilados/as. Aquello que hoy se conoce como “minería de datos” puede ser formalizado de diversas formas, como por ejemplo extracción de padrones y regularidades. La información cada vez más detallada de quiénes y cómo estamos conectadas/os construye perfiles minuciosos (“targets”) de los usuarios/ consumidores/ciudadanía (ZUAZO, Natalia, 2015, p. 196). 

Lucía Santaella (2011) analiza tres tipos de regímenes de vigilancia: panóptico, escópico y de rastreo, aunque los tres operan simultáneamente. Los dos últimos son estructurantes de la comunicación digital. El escópico se expresa en la proliferación de cámaras de vigilancia por todos los ámbitos: calles, establecimientos comerciales, edificios y hasta en la intimidad de los domicilios -potencializado por el Internet de las Cosas. El de rastreo nace en el espacio digital y permite el tratamiento de los datos prácticamente de forma instantánea. A partir del control “ubicuo y pulverizado de los medios móviles no hay, potencialmente, cómo esconderse. Los lugares son, más bien, puntos de un flujo continuo de vigilancia y cada uno de ellos está conectado con otro” (Santaella, 2011, p.140). Es que, como afirma Sparrow, “cuando la comunicación es digital, la vigilancia se encuentra justo en su núcleo” (2014, p.19).

Los agentes que ejercen esa vigilancia y las estrategias que despliegan pueden ser de dos tipos: 1) empresas económicas que aplican una estrategia centrada en un modelo de negocios que se basa en la recolección masiva de datos (minería de datos o Big Data) con o sin el consentimiento esclarecido de usuarios/as y suscriptores/as a servicios como: apps, redes sociales, servicios de correo, servicios de repositorios de documentos en la “nube”, etc. La estrategia de recolección incluye el uso de cookies, a través de las ventas en línea o del simple seguimiento de la navegación de cada usuario, respaldos de informaciones, servicios de telefonía, compañías de tarjetas de crédito y cualquier desarrollo de aplicaciones móviles.  Y 2) gobiernos y Estados que aplican una estrategia centrada en la “seguridad” local o global, basada en prácticas escópicas y de rastreo a los efectos no sólo de control, sino de manipulación de la opinión pública y las conductas electorales: afecta a toda la ciudadanía, pero en particular, a activistas, opositores/as y disidentes políticos.

La vigilancia digital y la necesidad de protección de los datos son temas emergentes que vienen marcando fuertemente la acción de los movimientos sociales que se ocupan de los derechos humanos en internet, tal como el feminismo y el hackerismo. El feminismo viene realizando una lectura crítica de la “cultura de los aplicativos” que se ha instalado vía el uso intenso de los celulares que, con el pretexto de auxiliar a las mujeres a controlar la menstruación, el cuidado de la salud y del cuerpo, por ejemplo, recogen datos que tienen valor agregado para la industria farmacéutica,  médica y más aún, para las aseguradoras. Esto, más las violencias de género que se amplían en internet (acoso, doxing, robo y divulgación de imágenes sin consentimiento, etc.) tiene relación directa con los protocolos adoptados por los hardwares y softwares, esto es, por los códigos hegemónicos que permiten o restringen ciertas prácticas (Goldsman y Natansohn, 2016), pues, como dice Lessig, en internet, el código es la ley. 

A medida que pasa el tiempo, estas estrategias se van desnudando, sea por la denuncia de los propios implicados/cómplices arrepentidos, o por la de ciberactivistas. Recordemos, por ejemplo, el escándalo de Cambridge Analytic, que supuso la manipulación de datos de 50 millones de usuarios de Facebook sin que hubiera una aprobación expresa por parte de los mismos acerca del uso que se daría a la información. Uno de sus principales directivos, Christopher Wylie, luego de denunciar la maniobra ante el Comité de Cultura y Medios de la Cámara de los Comunes británica, declaró a la prensa que tardíamente reparó en las dimensiones negativas de lo que él mismo estaba haciendo. Además, y esto es claramente alarmante, opinó: “que una compañía que tiene clientes militares cree una enorme base de datos de ciudadanos, algunos de ellos recogidos ilegalmente, genera un grave riesgo de borrar las fronteras entre vigilancia doméstica e investigación de mercado convencional” (en Guimon, 2018).

Para citar otro ejemplo de cómo no sólo las empresas económicas sino también los gobiernos están interesados en los datos de los usuarios, se conoció la noticia de que recientemente Aisha Lebron, Directora de Change.org Argentina, fue designada con un cargo político en el Ministerio de Desarrollo Social de Argentina. De acuerdo con el portal El Disenso, cuando se firma una petición en esa plataforma, la empresa tiene acceso a todo tipo de datos, entre ellos nombre, dirección postal, número de teléfono, dirección de correo electrónico o cualquier otra autenticación con la que accede a la plataforma, imagen de perfil, fotos, número de identificación único de dispositivo móvil si accede de este modo, si se comparte a través de Facebook información inferida sobre los temas que le interesan en función de sus actividades en la plataforma (por ejemplo, derechos de los animales, cambio climático, etc.), información disponible en registros públicos u otras bases de datos disponibles para el público, tales como las interfaces de programación de aplicaciones (API, por sus siglas en inglés), datos cívicos, información recopilada a través de cookies, información demográfica, etc. (Escalada y Ronconi, 2018).

Las consecuencias que esta exponencial producción y procesamiento de información tiene para las sociedades, han sido hipotetizadas por Sadin (2017) al decir que  


un movimiento que tiende hacia el incremento continuo de la `administración` del mundo mediante dobles artificiales inteligentes parece inexorable; esta administración, presumimos, se asemeja, en los hechos, a una `toma del poder`, una suerte de `golpe de Estado` permanente o progresivo organizado por la sofisticación tecnológica contemporánea. (SADIN, 2017, p.31- 32)

¿Es posible una mayor autonomía frente a las tecnologías de la información y la comunicación?

A pesar de lo dicho, puede afirmarse que el vínculo de las personas y los grupos sociales con las tecnologías digitales es paradójico y está rodeado de fuertes tensiones. Peirone (2017) sostiene que

las redes sociales 1) otorgan la posibilidad de auscultar, clasificar y procesar patrones conductuales mediante algoritmos y macrodatos (Big data); y, al mismo tiempo que distribuyen el control social entre los propios usuarios de las redes, también 2) posibilitan un empoderamiento colectivo con renovados modelos de resistencia, y generan un “excedente cognitivo” que aún no podemos conceptualizar acabadamente ni prever sus efectos histórico-culturales.

Es decir, empoderamientos colectivos conviven de manera dramática con vigilancia política y económica.

Las tecnologías y plataformas que usamos cuentan por defecto con algoritmos de monitoreo de las informaciones y acciones de los individuos en el ciberespacio, sostenido en un modelo de eficiencia y persiguiendo una eficacia empírica. 

Sin embargo, afirmamos junto con Fernanda Bruno que el hecho de que la vigilancia esté presente como una posibilidad de la propia arquitectura de esos dispositivos no implica que ella sea necesaria o indispensable. Esto significa que el tener a mano los datos de navegación, de uso de plataformas y hábitos de la vida virtual de la ciudadanía, no debería implicar su sistematización, análisis y uso por fuera de nuestro conocimiento y consentimiento. Es decir, no son necesariamente indispensables para el desarrollo de la tecnología digital, aunque lo sea para la expansión del capitalismo de datos.

La comprensión de estos mecanismos por parte de usuarias/os es fundamental. Es decir, conocer el modo en que los datos son recogidos, sistematizados, y utilizados con fines diversos, sean económicos o ideológico-políticos permitiría, en la medida en que emerja una voluntad de defensa de derechos, participar de acciones colectivas con el objetivo de ampliar la autonomía frente a los poderes económicos, políticos y tecnológicos, que es como entendemos la apropiación social. De lo contrario, solamente se cumple la apropiación inversa, es decir, son esos mismos poderes quienes se apropian de nuestros datos, de nuestras opiniones, de nuestra creatividad y de nuestros recursos económicos, creativos y cognitivos. 

Si la respuesta a la pregunta de este acápite es positiva, y afirmamos que es posible una mayor autonomía de las/los usuarias/os de las tecnologías comunicacionales, una nueva pregunta aparece, y es que si tenemos los elementos, como usuarias y usuarios, para comprender los condicionamientos que rodean nuestras prácticas de uso de tecnologías, y si estamos dispuestos a hacer algo para recuperar el mando de nuestra vida virtual.

Bibliografía 

Bruno, F. (2013). Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. Porto Alegre: Sulina. 

CERT.BR (s/f). Fascículo Privacidade. En http://nic.br/media/docs/publicacoes/13/fasciculo-privacidade.pdf  Consultado el 30/06/2018.

Escalada, M. y Ronconi, A. (2018). La directora de Change.org fue nombrada en el gobierno “con excepción”. Portal El Disenso, 25 abril. Disponible en http://www.eldisenso.com/breves/la-directora-de-change-org-fue-nombrada-en-el-gobierno-con-excepcion/. Consultado el 30/06/2018.

Fundación Acceso (2015). ¿Privacidad digital para defensores y defensoras de derechos humanos? Un estudio sobre cómo los marcos legales de El Salvador, Guatemala, Honduras y Nicaragua pueden ser utilizados para la protección, criminalización y/o vigilancia digital de defensoras y defensores de derechos humanos. San José, Costa Rica: Fundación Acceso. Disponible en http://acceso.or.cr/assets/files/investigacion-resumen-ejecutivo.pdf Consultado el 30/06/2018.

Fundación Vía Libre (s/f). Repositorio del ciclo de cursos abiertos Internet y derechos humanos. Disponible en https://www.articaonline.com/repositorio-del-ciclo-de-cursos-abiertos-internet-y-derechos-humanos/#PrivacidadyVigilancia Consultado el 30/06/2018.

Goldsman, F.; Nantansohn, G. (2016). Violencia contra las mujeres en red, vigilancia y el derecho a la privacidad. En: Anais do IX Simpósio Nacional da ABCiber. Pontifícia Universidade Católica de São Paulo (PUC-SP), 8, 9 e 10 de dezembro. Disponible en http://abciber.org.br/simposio2016/anais_online Consultado el 30/06/2018.

Guimon, P. (2018). El Brexit no habría sucedido sin Cambridge Analytica. El País, 28 marzo. Disponible en https://elpais.com/internacional/2018/03/26/actualidad/1522058765_703094.html.  Consultado el 30/06/2018.

Internautas.org (s/f). 13 principios para el día de la privacidad.  Disponible en http://www.internautas.org/html/8764.html . Consultado el 30/06/2018.

Manovich, L. (2013). El software toma el mando. Barcelona: UOC (Universitat Oberta de Catalunya).

Morales, S. (2017). Imaginación y software: aportes para la construcción del paradigma de la apropiación, en Cabello, Roxana y López, A. Contribuciones al estudio de procesos de apropiación de tecnologías. Comodoro Rivadavia: Del Gato Gris.

Privacy International (2015). Demanda y oferta: la industria de la vigilancia al descubierto. Disponible en https://privacyinternational.org/sites/default/files/2017-12/DemandSupply_Espanol.pdf . Consultado el 30/06/2018.

Sadin, E. (2017). La humanidad aumentada. La administración digital del mundo. Buenos Aires: La Caja Negra.

Santaella, L. (2011). As ambivalências das mídias móveis e locativas. En: Beiguelman, G.; La Ferla,
J. (Org.). Nomadismos Tecnológicos.  São Paulo: Ed. Senac, pp. 133-149.

Siri, L. (2015). ¿Qué es la privacidad? Privacidad y vigilancia en entornos digitales. Curso online de Fundación Vía Libre y Artica. Disponible en https://canvas.instructure.com/courses/981219/pages/1-dot-1-que-es-la-privacidad?module_item_id=8288975  Consultado el 30/06/2018.

Solove, D. (2013). Autogestión de la privacidad y el dilema del consentimiento, Revista Chilena de Derecho y Tecnología. Disponible en http://comunicacionymedios.uchile.cl/index.php/RCHDT/article/view/30308 Consultado el 30/06/2018.

Zuboff, S. (2015). Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology 30, pp.75–89. Disponible en http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2594754 Consultado el 30/06/2018.

Sparrow, E. (2014). Digital surveillance. GISWATCH 2014. Global Information Society Watch – Communications surveillance in the digital age. Disponible en http://giswatch.org/2014-communicnations-surveillance-digital-age. Consultado el 30/06/2018.

Zuazo,  N. (2015). Guerras de Internet.  Buenos Aires: Editorial Debate.

Cómo citar este artículo

Morales, S. y Natansohn, G. (2018). Vigilancia, privacidad e intimidad en internet: desafíos para el estudio de la apropiación tecnomediática. En Secretaría de Investigación y Extensión del Instituto Académico Pedagógico de Ciencias Sociales (IAPCS) (Org.). II Jornadas de Sociología. UNVM, Córdoba, Argentina.

Susana Morales

Susana Morales