La nueva ley de protección de datos y la confianza en las redes sociales: la cara mala de Facebook (4/4)

Cerrando el análisis en cuatro partes sobre la crisis de Facebook y Cambridge Analytica, me gustaría ahora de enfocarme en cómo las organizaciones en la era digital están gestionando la confianza que sus usuarios y clientes tienen en ellas y el role de la ética en el big data. Este artículo es particularmente relevante pues esta semana la nueva normativa europea para protección de datos entra en vigor.

Este caso en particular demuestra que hubo una clara quiebra de la confianza entre los usuarios y Facebook. Además, observamos como l a la cuestión del consentimiento es central para comprender toda esta crisis. No que eso sea algo nuevo, pues el fundador de Facebook es conocido por ser un ¨serial-apologiser¨. No es de hoy que Facebook se destaca negativamente en diferentes estudios sobre confianza como, por ejemplo,  este en que es la última entre las gigantes del mercado y este, en que demuestra cómo su reputación fue afectada tras la crisis.

La cuestión es: ¿una empresa debe ser especialista en hacer las cosas bien a la primera o en disculparse después que se descubre sus mal hechos? Talvez todo no pasa de prisa y el resultado del pionerismo, pues el mantra de Facebook es “move fast and break fast”. Pero, ¿y si es solo irresponsabilidad? Sea como fuera, y no tengo la intención de juzgar a nadie ni a Facebook, este es un ejemplo muy interesante sobre el tema de la construcción de confianza en ambientes digitales.

La confianza es un estado mental y una actitud en relación a un agente (en este caso, una plataforma de red social) y se asocia al comportamiento o acción esperado en el futuro de este agente. La evaluación que se hace de la confianza atribuida a este agente se llama reputación.

La confiabilidad en Facebook: una vez más cuestionada

 La confianza es un constructo situacional y depende de la percepción de la naturaleza de las intenciones y motivos de la otra persona o organización. El caso de Facebook es sintomático, pues al parecer la red no se importó mucho con el uso de su plataforma para fines de investigación, a sabiendas que esta investigación no se quedaría solo en el mundo teórico. Es decir, posiblemente había interés por parte de Facebook que el experimento fuese usado como un campo de test de un nuevo tipo de publicidad basada en el uso de la red social como predictor del comportamiento social (para fines comerciales o electorales). O, menos que eso, no se importaron mucho con limites éticos para la obtención de datos. Cerraron los ojos o miraron para el otro lado, en fin.

No hay nada de nuevo en el uso de informaciones personales para fines de comerciales, como ya comentamos, y eso es día a día del marketing basado en datos. El problema en este caso fue como Cambridge Analytica se apropió indebidamente de los datos a través de una app ofrecida a través de Facebook con el objetivo explícito de ser un test de personalidad. Es decir, esta app defraudó a la gente para obtener sus datos y también de sus contactos. Peor que eso tal vez fue el hecho de que el objetivo final de CA era lo usar este data set para crear campañas de desinformación y divulgación de falsedades  según comentarios de un ex-empleado de la empresa.

En resumen, para concluir este artículo, el tema se centra, al final y al cabo, en la ética de las organizaciones a la hora de gestionar los datos de las personas. Si, como dice el refrán, la tecnología es agnóstica, las personas y empresas, por su vez, generalmente tienen sus preferencias. E intereses. De manera, que el uso ético de los datos debe seguir algún tipo de criterio. En este interesante paper, un ingeniero de IBM nos da algunas pautas de cómo eso debería acontecer y en este del MIT ya se dejaba antever también las preocupaciones con el dark side del big data.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio