La nueva ley de protección de datos y la confianza en las redes sociales: la cara mala de Facebook (4/4)

Cerrando el análisis en cuatro partes sobre la crisis de Facebook y Cambridge Analytica, me gustaría ahora de enfocarme en cómo las organizaciones en la era digital están gestionando la confianza que sus usuarios y clientes tienen en ellas y el role de la ética en el big data. Este artículo es particularmente relevante pues esta semana la nueva normativa europea para protección de datos entra en vigor.

Este caso en particular demuestra que hubo una clara quiebra de la confianza entre los usuarios y Facebook. Además, observamos como l a la cuestión del consentimiento es central para comprender toda esta crisis. No que eso sea algo nuevo, pues el fundador de Facebook es conocido por ser un ¨serial-apologiser¨. No es de hoy que Facebook se destaca negativamente en diferentes estudios sobre confianza como, por ejemplo,  este en que es la última entre las gigantes del mercado y este, en que demuestra cómo su reputación fue afectada tras la crisis.

La cuestión es: ¿una empresa debe ser especialista en hacer las cosas bien a la primera o en disculparse después que se descubre sus mal hechos? Talvez todo no pasa de prisa y el resultado del pionerismo, pues el mantra de Facebook es “move fast and break fast”. Pero, ¿y si es solo irresponsabilidad? Sea como fuera, y no tengo la intención de juzgar a nadie ni a Facebook, este es un ejemplo muy interesante sobre el tema de la construcción de confianza en ambientes digitales.

La confianza es un estado mental y una actitud en relación a un agente (en este caso, una plataforma de red social) y se asocia al comportamiento o acción esperado en el futuro de este agente. La evaluación que se hace de la confianza atribuida a este agente se llama reputación.

La confiabilidad en Facebook: una vez más cuestionada

 La confianza es un constructo situacional y depende de la percepción de la naturaleza de las intenciones y motivos de la otra persona o organización. El caso de Facebook es sintomático, pues al parecer la red no se importó mucho con el uso de su plataforma para fines de investigación, a sabiendas que esta investigación no se quedaría solo en el mundo teórico. Es decir, posiblemente había interés por parte de Facebook que el experimento fuese usado como un campo de test de un nuevo tipo de publicidad basada en el uso de la red social como predictor del comportamiento social (para fines comerciales o electorales). O, menos que eso, no se importaron mucho con limites éticos para la obtención de datos. Cerraron los ojos o miraron para el otro lado, en fin.

No hay nada de nuevo en el uso de informaciones personales para fines de comerciales, como ya comentamos, y eso es día a día del marketing basado en datos. El problema en este caso fue como Cambridge Analytica se apropió indebidamente de los datos a través de una app ofrecida a través de Facebook con el objetivo explícito de ser un test de personalidad. Es decir, esta app defraudó a la gente para obtener sus datos y también de sus contactos. Peor que eso tal vez fue el hecho de que el objetivo final de CA era lo usar este data set para crear campañas de desinformación y divulgación de falsedades  según comentarios de un ex-empleado de la empresa.

En resumen, para concluir este artículo, el tema se centra, al final y al cabo, en la ética de las organizaciones a la hora de gestionar los datos de las personas. Si, como dice el refrán, la tecnología es agnóstica, las personas y empresas, por su vez, generalmente tienen sus preferencias. E intereses. De manera, que el uso ético de los datos debe seguir algún tipo de criterio. En este interesante paper, un ingeniero de IBM nos da algunas pautas de cómo eso debería acontecer y en este del MIT ya se dejaba antever también las preocupaciones con el dark side del big data.

 

El Mito de la Transparencia: la cara mala de Facebook (2/4)

Una crisis acerca de la transparencia, podríamos resumir así la pesadilla para la reputación de Facebook los hechos ocurridos en estas últimas semanas. O, como la revista Times lo describió de forma brillante: «Todo esto ha provocado duras críticas a la compañía, que rastrea meticulosamente a sus usuarios pero no pudo hacer un seguimiento de adónde fue la información sobre la vida y el pensamiento de esa gente». En esta aparente paradoja reside el primer punto que me gustaría destacar en este segunda parte de mi análisis: El Mito de la Transparencia.

Si uno lee libros como lo de Jeff Jarvis “Partes Públicas”(2011), sabes cómo las redes sociales han creado con éxito una hype sobre las virtudes de la vida en la esfera pública, en un continuo “Self Big Brother”. Aunque en aquel entonces Jarvis estaba de acuerdo con algún tipo de protección a la privacidad de las personas, como las propuestas por la entonces comisaria europea Viviane Reding, él defendía también una visión libertaria, tal vez utópica, de la transparencia que ignoraba un impulso básico detrás de la «publificación» de nuestra vidas de por las compañías de tecnología. Para ellas, los datos tienen valor económico y las redes sociales prosperan comercializando datos que de privados se convirtieron en públicos.

Lo que esta crisis ha sacado a la luz y ha llamado la atención de los reguladores ha sido la culminación de una serie de problemas en relación a la privacidad y fallos de seguridad que involucran a Internet y, más precisamente, a Facebook. Es tal vez el comienzo del «fin de la inocencia» y la comprensión por parte de los usuarios de que la transparencia es buena cuando ocurre en ambos sentidos: desde la parte del productor de los datos (es decir, nosotros) y del comercializador de los datos ( las empresas de redes sociales). El mercado se ha vuelto más maduro. La gente comienza a darse cuenta de que nunca ha habido un verdadero «servicio gratuito» de Google o Facebook. Como lo plantea Viviane Reding: pagamos el servicio con nuestros datos.

Para ser justos, estas compañías nunca han dicho que no usarían los datos de las personas para diversos propósitos, válidos o no, incluyendo hacer toneladas de dinero. Sin embargo, lo que la gente está notando ahora es cuán opacas y descuidadas las empresas de TIC han estado en el manejo de estos datos. Y cuán vulnerables son los usuarios cuando sus mentes pueden ser leídas por compañías de data mining como Cambridge Analytic que usó el controvertido, y al mismo tiempo, brillante experimento realizado por Kosinski et al (2015).

Las personas también se están dando cuenta de cómo las redes sociales crean una forma sutil de vigilancia, al permitir que las organizaciones desconocidas accedan a su visión del mundo, sus relaciones y sus gustos. Al impactar decisiones muy serias como los votos en una elección general, por ejemplo, o referéndums, la opinión pública comienza a darse cuenta de los riesgos de la manipulación en este ciclo de transparencia de datos – extracción de datos – gestión de campañas.