Can we trust Facebook

La nueva ley de protección de datos y la confianza en las redes sociales: la cara mala de Facebook (4/4)

Publicado el Deja un comentarioPublicada en Big Data, Crisis, Data mining, Ética, Privacidad, Reputación

Cerrando el análisis en cuatro partes sobre la crisis de Facebook y Cambridge Analytica, me gustaría ahora de enfocarme en cómo las organizaciones en la era digital están gestionando la confianza que sus usuarios y clientes tienen en ellas y el role de la ética en el big data. Este artículo es particularmente relevante pues esta semana la nueva normativa europea para protección de datos entra en vigor.

Este caso en particular demuestra que hubo una clara quiebra de la confianza entre los usuarios y Facebook. Además, observamos como l a la cuestión del consentimiento es central para comprender toda esta crisis. No que eso sea algo nuevo, pues el fundador de Facebook es conocido por ser un ¨serial-apologiser¨. No es de hoy que Facebook se destaca negativamente en diferentes estudios sobre confianza como, por ejemplo,  este en que es la última entre las gigantes del mercado y este, en que demuestra cómo su reputación fue afectada tras la crisis.

La cuestión es: ¿una empresa debe ser especialista en hacer las cosas bien a la primera o en disculparse después que se descubre sus mal hechos? Talvez todo no pasa de prisa y el resultado del pionerismo, pues el mantra de Facebook es “move fast and break fast”. Pero, ¿y si es solo irresponsabilidad? Sea como fuera, y no tengo la intención de juzgar a nadie ni a Facebook, este es un ejemplo muy interesante sobre el tema de la construcción de confianza en ambientes digitales.

La confianza es un estado mental y una actitud en relación a un agente (en este caso, una plataforma de red social) y se asocia al comportamiento o acción esperado en el futuro de este agente. La evaluación que se hace de la confianza atribuida a este agente se llama reputación.

La confiabilidad en Facebook: una vez más cuestionada

 La confianza es un constructo situacional y depende de la percepción de la naturaleza de las intenciones y motivos de la otra persona o organización. El caso de Facebook es sintomático, pues al parecer la red no se importó mucho con el uso de su plataforma para fines de investigación, a sabiendas que esta investigación no se quedaría solo en el mundo teórico. Es decir, posiblemente había interés por parte de Facebook que el experimento fuese usado como un campo de test de un nuevo tipo de publicidad basada en el uso de la red social como predictor del comportamiento social (para fines comerciales o electorales). O, menos que eso, no se importaron mucho con limites éticos para la obtención de datos. Cerraron los ojos o miraron para el otro lado, en fin.

No hay nada de nuevo en el uso de informaciones personales para fines de comerciales, como ya comentamos, y eso es día a día del marketing basado en datos. El problema en este caso fue como Cambridge Analytica se apropió indebidamente de los datos a través de una app ofrecida a través de Facebook con el objetivo explícito de ser un test de personalidad. Es decir, esta app defraudó a la gente para obtener sus datos y también de sus contactos. Peor que eso tal vez fue el hecho de que el objetivo final de CA era lo usar este data set para crear campañas de desinformación y divulgación de falsedades  según comentarios de un ex-empleado de la empresa.

En resumen, para concluir este artículo, el tema se centra, al final y al cabo, en la ética de las organizaciones a la hora de gestionar los datos de las personas. Si, como dice el refrán, la tecnología es agnóstica, las personas y empresas, por su vez, generalmente tienen sus preferencias. E intereses. De manera, que el uso ético de los datos debe seguir algún tipo de criterio. En este interesante paper, un ingeniero de IBM nos da algunas pautas de cómo eso debería acontecer y en este del MIT ya se dejaba antever también las preocupaciones con el dark side del big data.

 

La subasta de sí mismo

La Subasta de Si Mismo y sus riesgos: La cara mala de Facebook (3/4)

Publicado el 4 comentariosPublicada en Crisis, Data mining, Privacidad, Reputación

¿Por qué hay tanto ruido sobre la crisis de Cambridge Analytica? ¿Qué hay de nuevo en la falta de confianza en Facebook? Podría argumentar que el uso de datos demográficos con fines comerciales (o con fines políticos) es una práctica común desde los días de Gallup y sus predicciones basadas en encuestas de opinión que datan de 1940. A partir de ahí, mucho ha evolucionado, y el uso de datos en gran escala en política y marketing es una consecuencia natural de esta evolución. ¿O no?

El marketing es una ciencia persuasiva (o arte) y siempre se ha enfocado a algún tipo de emparejamiento. Piense en el marketing como un servicio de citas, uniendo personas, con sus necesidades y deseos, con productos y servicios. O, en el área política, votantes con políticos. Esto es muy claro a partir de la definición de Kotler:

El marketing es la ciencia y el arte de explorar, crear y entregar valor para satisfacer las necesidades de un mercado objetivo con un beneficio. El marketing identifica necesidades y deseos no satisfechos. Define, mide y cuantifica el tamaño del mercado identificado y el potencial de ganancia. Identifica los segmentos que la compañía es capaz de servir mejor y diseña y promueve los productos y servicios apropiados.

El uso de perfiles psicológicos y minería de datos en este infame caso de Facebook y Cambridge Analytica no es muy diferente de lo que las empresas de bases de datos prometieron hace 20 años. ¡Pero, con la diferencia de que ahora es posible cumplir estas promesas a un nivel de granularidad cercano a 1-a -1 y en tiempo real! Esto porque ahora hay tecnología, abundancia de datos y compañías como Facebook o Google aprendieron cómo monetizar la huella digital de las personas.

¿Dónde reside el problema, entonces?

Como mencioné en mi publicación anterior sobre este tema, los límites se han difuminado y tenemos dificultades para saber dónde termina nuestro mundo privado y dónde comienza el dominio público. Y esto sucedió porque ofrecimos información voluntariamente en un proceso que Piñuel Raigada, mi director de tesis doctoral, llamó de “la subasta de si mismo”. Cuando los usuarios comienzan a intercambiar las fotos de sus vacaciones, o las fotos de sus hijos, o sus selfies por un “me gusta”, está claro que ha comenzado una economía de exhibicionismo, bajo el sugerente nombre de “economía compartida”.

Sí, compartimos por el simple placer de compartir y disfrutar de la exposición de nosotros mismos con fines de networking, pero la economía compartida no es gratuita en absoluto, como siempre se ha sugerido. De hecho, los intermediarios de la economía compartida han sido espectacularmente hábiles para sacar provecho de estas huellas, y la privacidad paga un precio por eso. Hasta cierto punto, no hay nada de malo en eso, y a las personas parece no importarles mucho. En definitiva, las personas están más relajadas en compartir sus datos – pero tal vez porque no conocen los riesgos.

¿Cuál es el precio real de la economía compartida? ¿Y cuáles son sus riesgos?

Creo que la cuestión más importante ahora con este reciente escándalo fue la quiebra de la confianza en estas empresas en este comercio implícito de uno mismo por un clic. Otro aspecto son las posibilidades de manipulación de datos personales para fines que no son muy claros en un mundo con muchas noticias falsas y falsas promesas – el mundo de la posverdad. Esto nos lleva a mirar de manera distinta al comercio de las huellas online de las personas y posiblemente estemos asistiendo al final de la fase del Salvaje Oeste de la era digital, por ello las propuestas de regulación de la actividades en esta área.

Está claro que los gigantes digitales son las nuevas compañías mineras, pero en lugar de oro o plata, estas compañías están minando la vida de millones de personas y compañías en busca de patrones que hagan aún más eficiente en el proceso de marketing. El ideal del marketing, por fin, se está cumpliendo, gracias al consumidor, el rey de este mundo centrado en los datos y centrado en el cliente, que disfrutará de los “servicios y productos personalizados” que tanto anhelan. Esto puede ser realmente bueno y, como profesional de marketing, no veo ningún problema si las compañías actúan con responsabilidad, algo que no fue lo que vimos en este caso, como se quedó evidente en el pedido de disculpas de Mark Zuckemberg. Pero si las empresas de la economía compartida no actúan con la responsabilidad esperada, todo lo que sucederá a los consumidores y la sociedad tendrá un efecto colateral muy dañino, como el lector Paulo Seth comentó brillantemente en mi artículo anterior: “Honestamente, si no te importa tu propia seguridad en línea, es porque mereces toda la miseria que te puede ocurrir”.

El mito de la transparencia

El Mito de la Transparencia: la cara mala de Facebook (2/4)

Publicado el 2 comentariosPublicada en Big Data, Crisis, Data mining, Privacidad, Reputación

Una crisis acerca de la transparencia, podríamos resumir así la pesadilla para la reputación de Facebook los hechos ocurridos en estas últimas semanas. O, como la revista Times lo describió de forma brillante: “Todo esto ha provocado duras críticas a la compañía, que rastrea meticulosamente a sus usuarios pero no pudo hacer un seguimiento de adónde fue la información sobre la vida y el pensamiento de esa gente”. En esta aparente paradoja reside el primer punto que me gustaría destacar en este segunda parte de mi análisis: El Mito de la Transparencia.

Si uno lee libros como lo de Jeff Jarvis “Partes Públicas”(2011), sabes cómo las redes sociales han creado con éxito una hype sobre las virtudes de la vida en la esfera pública, en un continuo “Self Big Brother”. Aunque en aquel entonces Jarvis estaba de acuerdo con algún tipo de protección a la privacidad de las personas, como las propuestas por la entonces comisaria europea Viviane Reding, él defendía también una visión libertaria, tal vez utópica, de la transparencia que ignoraba un impulso básico detrás de la “publificación” de nuestra vidas de por las compañías de tecnología. Para ellas, los datos tienen valor económico y las redes sociales prosperan comercializando datos que de privados se convirtieron en públicos.

Lo que esta crisis ha sacado a la luz y ha llamado la atención de los reguladores ha sido la culminación de una serie de problemas en relación a la privacidad y fallos de seguridad que involucran a Internet y, más precisamente, a Facebook. Es tal vez el comienzo del “fin de la inocencia” y la comprensión por parte de los usuarios de que la transparencia es buena cuando ocurre en ambos sentidos: desde la parte del productor de los datos (es decir, nosotros) y del comercializador de los datos ( las empresas de redes sociales). El mercado se ha vuelto más maduro. La gente comienza a darse cuenta de que nunca ha habido un verdadero “servicio gratuito” de Google o Facebook. Como lo plantea Viviane Reding: pagamos el servicio con nuestros datos.

Para ser justos, estas compañías nunca han dicho que no usarían los datos de las personas para diversos propósitos, válidos o no, incluyendo hacer toneladas de dinero. Sin embargo, lo que la gente está notando ahora es cuán opacas y descuidadas las empresas de TIC han estado en el manejo de estos datos. Y cuán vulnerables son los usuarios cuando sus mentes pueden ser leídas por compañías de data mining como Cambridge Analytic que usó el controvertido, y al mismo tiempo, brillante experimento realizado por Kosinski et al (2015).

Las personas también se están dando cuenta de cómo las redes sociales crean una forma sutil de vigilancia, al permitir que las organizaciones desconocidas accedan a su visión del mundo, sus relaciones y sus gustos. Al impactar decisiones muy serias como los votos en una elección general, por ejemplo, o referéndums, la opinión pública comienza a darse cuenta de los riesgos de la manipulación en este ciclo de transparencia de datos – extracción de datos – gestión de campañas.

La crisis de Facebook y Cambridge Analytica

La cara mala de Facebook (1/4)

Publicado el Deja un comentarioPublicada en Big Data, Crisis, Estrategia, Privacidad, Reputación online

En esta crisis de reputación de Facebook y Cambridge Analytica yo planteo una reflexión: ¿Es posible una organización multinacional ser apolítica? Este es uno de los principales desafíos éticos de toda multinacional, pero eso es aún más importante cuando una empresa no está simplemente involucrada en el negocio de vender productos y servicios, como gasolina, zapatillas o perfumes. En el caso de Facebook, que se define ambiciosamente como una empresa que quiere ‘make the world more open and connected’ está claro que es bastante complicado. La misión de la empresa entra en ruta de colisión con el derecho a la privacidad y el poder de quienes usan nuestros datos en la publicidad vía Facebook como una arma de influencia.

En este sentido, la iniciativa #DeleteFacebook, aunque no va a afectar en casi nada a la empresa, es un indicador interesante de un posible cambio de humor social en relación a la simpática empresa azul. Eso porque la iniciativa expresa un rechazo y la conciencia de que las redes sociales, y en particular Facebook como su principal actor, no es algo tan inocente como las caritas sonrientes o los pulgares arriba de sus iconos. O los posts de perros y gatos.

En esta crisis de Facebook y Cambridge Analytica lo que vemos claramente es el cuestionamiento de la ética de una empresa con fines comerciales por la manera por la cual:

  1. Gestiona los datos que ha conseguido de las personas
  2. Entiende lo privado como algo comercialmente rentable
  3. Administra la confianza que sus usuarios y clientes tienen en ella

Es un caso extremadamente complejo con implicaciones para cualquier empresa que se mueve en la economía digital. Y que por lo tanto necesita de algunos parámetros acerca de estos temas para saber cómo tomar sus decisiones estratégicas. En los próximos tres posts voy a intentar abordar estos puntos. To be continued…