Can we trust Facebook

La nueva ley de protección de datos y la confianza en las redes sociales: la cara mala de Facebook (4/4)

Publicado el Deja un comentarioPublicada en Big Data, Crisis, Data mining, Ética, Privacidad, Reputación

Cerrando el análisis en cuatro partes sobre la crisis de Facebook y Cambridge Analytica, me gustaría ahora de enfocarme en cómo las organizaciones en la era digital están gestionando la confianza que sus usuarios y clientes tienen en ellas y el role de la ética en el big data. Este artículo es particularmente relevante pues esta semana la nueva normativa europea para protección de datos entra en vigor.

Este caso en particular demuestra que hubo una clara quiebra de la confianza entre los usuarios y Facebook. Además, observamos como l a la cuestión del consentimiento es central para comprender toda esta crisis. No que eso sea algo nuevo, pues el fundador de Facebook es conocido por ser un ¨serial-apologiser¨. No es de hoy que Facebook se destaca negativamente en diferentes estudios sobre confianza como, por ejemplo,  este en que es la última entre las gigantes del mercado y este, en que demuestra cómo su reputación fue afectada tras la crisis.

La cuestión es: ¿una empresa debe ser especialista en hacer las cosas bien a la primera o en disculparse después que se descubre sus mal hechos? Talvez todo no pasa de prisa y el resultado del pionerismo, pues el mantra de Facebook es “move fast and break fast”. Pero, ¿y si es solo irresponsabilidad? Sea como fuera, y no tengo la intención de juzgar a nadie ni a Facebook, este es un ejemplo muy interesante sobre el tema de la construcción de confianza en ambientes digitales.

La confianza es un estado mental y una actitud en relación a un agente (en este caso, una plataforma de red social) y se asocia al comportamiento o acción esperado en el futuro de este agente. La evaluación que se hace de la confianza atribuida a este agente se llama reputación.

La confiabilidad en Facebook: una vez más cuestionada

 La confianza es un constructo situacional y depende de la percepción de la naturaleza de las intenciones y motivos de la otra persona o organización. El caso de Facebook es sintomático, pues al parecer la red no se importó mucho con el uso de su plataforma para fines de investigación, a sabiendas que esta investigación no se quedaría solo en el mundo teórico. Es decir, posiblemente había interés por parte de Facebook que el experimento fuese usado como un campo de test de un nuevo tipo de publicidad basada en el uso de la red social como predictor del comportamiento social (para fines comerciales o electorales). O, menos que eso, no se importaron mucho con limites éticos para la obtención de datos. Cerraron los ojos o miraron para el otro lado, en fin.

No hay nada de nuevo en el uso de informaciones personales para fines de comerciales, como ya comentamos, y eso es día a día del marketing basado en datos. El problema en este caso fue como Cambridge Analytica se apropió indebidamente de los datos a través de una app ofrecida a través de Facebook con el objetivo explícito de ser un test de personalidad. Es decir, esta app defraudó a la gente para obtener sus datos y también de sus contactos. Peor que eso tal vez fue el hecho de que el objetivo final de CA era lo usar este data set para crear campañas de desinformación y divulgación de falsedades  según comentarios de un ex-empleado de la empresa.

En resumen, para concluir este artículo, el tema se centra, al final y al cabo, en la ética de las organizaciones a la hora de gestionar los datos de las personas. Si, como dice el refrán, la tecnología es agnóstica, las personas y empresas, por su vez, generalmente tienen sus preferencias. E intereses. De manera, que el uso ético de los datos debe seguir algún tipo de criterio. En este interesante paper, un ingeniero de IBM nos da algunas pautas de cómo eso debería acontecer y en este del MIT ya se dejaba antever también las preocupaciones con el dark side del big data.

 

La subasta de sí mismo

La Subasta de Si Mismo y sus riesgos: La cara mala de Facebook (3/4)

Publicado el 4 comentariosPublicada en Crisis, Data mining, Privacidad, Reputación

¿Por qué hay tanto ruido sobre la crisis de Cambridge Analytica? ¿Qué hay de nuevo en la falta de confianza en Facebook? Podría argumentar que el uso de datos demográficos con fines comerciales (o con fines políticos) es una práctica común desde los días de Gallup y sus predicciones basadas en encuestas de opinión que datan de 1940. A partir de ahí, mucho ha evolucionado, y el uso de datos en gran escala en política y marketing es una consecuencia natural de esta evolución. ¿O no?

El marketing es una ciencia persuasiva (o arte) y siempre se ha enfocado a algún tipo de emparejamiento. Piense en el marketing como un servicio de citas, uniendo personas, con sus necesidades y deseos, con productos y servicios. O, en el área política, votantes con políticos. Esto es muy claro a partir de la definición de Kotler:

El marketing es la ciencia y el arte de explorar, crear y entregar valor para satisfacer las necesidades de un mercado objetivo con un beneficio. El marketing identifica necesidades y deseos no satisfechos. Define, mide y cuantifica el tamaño del mercado identificado y el potencial de ganancia. Identifica los segmentos que la compañía es capaz de servir mejor y diseña y promueve los productos y servicios apropiados.

El uso de perfiles psicológicos y minería de datos en este infame caso de Facebook y Cambridge Analytica no es muy diferente de lo que las empresas de bases de datos prometieron hace 20 años. ¡Pero, con la diferencia de que ahora es posible cumplir estas promesas a un nivel de granularidad cercano a 1-a -1 y en tiempo real! Esto porque ahora hay tecnología, abundancia de datos y compañías como Facebook o Google aprendieron cómo monetizar la huella digital de las personas.

¿Dónde reside el problema, entonces?

Como mencioné en mi publicación anterior sobre este tema, los límites se han difuminado y tenemos dificultades para saber dónde termina nuestro mundo privado y dónde comienza el dominio público. Y esto sucedió porque ofrecimos información voluntariamente en un proceso que Piñuel Raigada, mi director de tesis doctoral, llamó de “la subasta de si mismo”. Cuando los usuarios comienzan a intercambiar las fotos de sus vacaciones, o las fotos de sus hijos, o sus selfies por un “me gusta”, está claro que ha comenzado una economía de exhibicionismo, bajo el sugerente nombre de “economía compartida”.

Sí, compartimos por el simple placer de compartir y disfrutar de la exposición de nosotros mismos con fines de networking, pero la economía compartida no es gratuita en absoluto, como siempre se ha sugerido. De hecho, los intermediarios de la economía compartida han sido espectacularmente hábiles para sacar provecho de estas huellas, y la privacidad paga un precio por eso. Hasta cierto punto, no hay nada de malo en eso, y a las personas parece no importarles mucho. En definitiva, las personas están más relajadas en compartir sus datos – pero tal vez porque no conocen los riesgos.

¿Cuál es el precio real de la economía compartida? ¿Y cuáles son sus riesgos?

Creo que la cuestión más importante ahora con este reciente escándalo fue la quiebra de la confianza en estas empresas en este comercio implícito de uno mismo por un clic. Otro aspecto son las posibilidades de manipulación de datos personales para fines que no son muy claros en un mundo con muchas noticias falsas y falsas promesas – el mundo de la posverdad. Esto nos lleva a mirar de manera distinta al comercio de las huellas online de las personas y posiblemente estemos asistiendo al final de la fase del Salvaje Oeste de la era digital, por ello las propuestas de regulación de la actividades en esta área.

Está claro que los gigantes digitales son las nuevas compañías mineras, pero en lugar de oro o plata, estas compañías están minando la vida de millones de personas y compañías en busca de patrones que hagan aún más eficiente en el proceso de marketing. El ideal del marketing, por fin, se está cumpliendo, gracias al consumidor, el rey de este mundo centrado en los datos y centrado en el cliente, que disfrutará de los “servicios y productos personalizados” que tanto anhelan. Esto puede ser realmente bueno y, como profesional de marketing, no veo ningún problema si las compañías actúan con responsabilidad, algo que no fue lo que vimos en este caso, como se quedó evidente en el pedido de disculpas de Mark Zuckemberg. Pero si las empresas de la economía compartida no actúan con la responsabilidad esperada, todo lo que sucederá a los consumidores y la sociedad tendrá un efecto colateral muy dañino, como el lector Paulo Seth comentó brillantemente en mi artículo anterior: “Honestamente, si no te importa tu propia seguridad en línea, es porque mereces toda la miseria que te puede ocurrir”.