La nueva ley de protección de datos y la confianza en las redes sociales: la cara mala de Facebook (4/4)

Cerrando el análisis en cuatro partes sobre la crisis de Facebook y Cambridge Analytica, me gustaría ahora de enfocarme en cómo las organizaciones en la era digital están gestionando la confianza que sus usuarios y clientes tienen en ellas y el role de la ética en el big data. Este artículo es particularmente relevante pues esta semana la nueva normativa europea para protección de datos entra en vigor.

Este caso en particular demuestra que hubo una clara quiebra de la confianza entre los usuarios y Facebook. Además, observamos como l a la cuestión del consentimiento es central para comprender toda esta crisis. No que eso sea algo nuevo, pues el fundador de Facebook es conocido por ser un ¨serial-apologiser¨. No es de hoy que Facebook se destaca negativamente en diferentes estudios sobre confianza como, por ejemplo,  este en que es la última entre las gigantes del mercado y este, en que demuestra cómo su reputación fue afectada tras la crisis.

La cuestión es: ¿una empresa debe ser especialista en hacer las cosas bien a la primera o en disculparse después que se descubre sus mal hechos? Talvez todo no pasa de prisa y el resultado del pionerismo, pues el mantra de Facebook es “move fast and break fast”. Pero, ¿y si es solo irresponsabilidad? Sea como fuera, y no tengo la intención de juzgar a nadie ni a Facebook, este es un ejemplo muy interesante sobre el tema de la construcción de confianza en ambientes digitales.

La confianza es un estado mental y una actitud en relación a un agente (en este caso, una plataforma de red social) y se asocia al comportamiento o acción esperado en el futuro de este agente. La evaluación que se hace de la confianza atribuida a este agente se llama reputación.

La confiabilidad en Facebook: una vez más cuestionada

 La confianza es un constructo situacional y depende de la percepción de la naturaleza de las intenciones y motivos de la otra persona o organización. El caso de Facebook es sintomático, pues al parecer la red no se importó mucho con el uso de su plataforma para fines de investigación, a sabiendas que esta investigación no se quedaría solo en el mundo teórico. Es decir, posiblemente había interés por parte de Facebook que el experimento fuese usado como un campo de test de un nuevo tipo de publicidad basada en el uso de la red social como predictor del comportamiento social (para fines comerciales o electorales). O, menos que eso, no se importaron mucho con limites éticos para la obtención de datos. Cerraron los ojos o miraron para el otro lado, en fin.

No hay nada de nuevo en el uso de informaciones personales para fines de comerciales, como ya comentamos, y eso es día a día del marketing basado en datos. El problema en este caso fue como Cambridge Analytica se apropió indebidamente de los datos a través de una app ofrecida a través de Facebook con el objetivo explícito de ser un test de personalidad. Es decir, esta app defraudó a la gente para obtener sus datos y también de sus contactos. Peor que eso tal vez fue el hecho de que el objetivo final de CA era lo usar este data set para crear campañas de desinformación y divulgación de falsedades  según comentarios de un ex-empleado de la empresa.

En resumen, para concluir este artículo, el tema se centra, al final y al cabo, en la ética de las organizaciones a la hora de gestionar los datos de las personas. Si, como dice el refrán, la tecnología es agnóstica, las personas y empresas, por su vez, generalmente tienen sus preferencias. E intereses. De manera, que el uso ético de los datos debe seguir algún tipo de criterio. En este interesante paper, un ingeniero de IBM nos da algunas pautas de cómo eso debería acontecer y en este del MIT ya se dejaba antever también las preocupaciones con el dark side del big data.

 

La Subasta de Si Mismo y sus riesgos: La cara mala de Facebook (3/4)

¿Por qué hay tanto ruido sobre la crisis de Cambridge Analytica? ¿Qué hay de nuevo en la falta de confianza en Facebook? Podría argumentar que el uso de datos demográficos con fines comerciales (o con fines políticos) es una práctica común desde los días de Gallup y sus predicciones basadas en encuestas de opinión que datan de 1940. A partir de ahí, mucho ha evolucionado, y el uso de datos en gran escala en política y marketing es una consecuencia natural de esta evolución. ¿O no?

El marketing es una ciencia persuasiva (o arte) y siempre se ha enfocado a algún tipo de emparejamiento. Piense en el marketing como un servicio de citas, uniendo personas, con sus necesidades y deseos, con productos y servicios. O, en el área política, votantes con políticos. Esto es muy claro a partir de la definición de Kotler:

El marketing es la ciencia y el arte de explorar, crear y entregar valor para satisfacer las necesidades de un mercado objetivo con un beneficio. El marketing identifica necesidades y deseos no satisfechos. Define, mide y cuantifica el tamaño del mercado identificado y el potencial de ganancia. Identifica los segmentos que la compañía es capaz de servir mejor y diseña y promueve los productos y servicios apropiados.

El uso de perfiles psicológicos y minería de datos en este infame caso de Facebook y Cambridge Analytica no es muy diferente de lo que las empresas de bases de datos prometieron hace 20 años. ¡Pero, con la diferencia de que ahora es posible cumplir estas promesas a un nivel de granularidad cercano a 1-a -1 y en tiempo real! Esto porque ahora hay tecnología, abundancia de datos y compañías como Facebook o Google aprendieron cómo monetizar la huella digital de las personas.

¿Dónde reside el problema, entonces?

Como mencioné en mi publicación anterior sobre este tema, los límites se han difuminado y tenemos dificultades para saber dónde termina nuestro mundo privado y dónde comienza el dominio público. Y esto sucedió porque ofrecimos información voluntariamente en un proceso que Piñuel Raigada, mi director de tesis doctoral, llamó de «la subasta de si mismo». Cuando los usuarios comienzan a intercambiar las fotos de sus vacaciones, o las fotos de sus hijos, o sus selfies por un «me gusta», está claro que ha comenzado una economía de exhibicionismo, bajo el sugerente nombre de «economía compartida».

Sí, compartimos por el simple placer de compartir y disfrutar de la exposición de nosotros mismos con fines de networking, pero la economía compartida no es gratuita en absoluto, como siempre se ha sugerido. De hecho, los intermediarios de la economía compartida han sido espectacularmente hábiles para sacar provecho de estas huellas, y la privacidad paga un precio por eso. Hasta cierto punto, no hay nada de malo en eso, y a las personas parece no importarles mucho. En definitiva, las personas están más relajadas en compartir sus datos – pero tal vez porque no conocen los riesgos.

¿Cuál es el precio real de la economía compartida? ¿Y cuáles son sus riesgos?

Creo que la cuestión más importante ahora con este reciente escándalo fue la quiebra de la confianza en estas empresas en este comercio implícito de uno mismo por un clic. Otro aspecto son las posibilidades de manipulación de datos personales para fines que no son muy claros en un mundo con muchas noticias falsas y falsas promesas – el mundo de la posverdad. Esto nos lleva a mirar de manera distinta al comercio de las huellas online de las personas y posiblemente estemos asistiendo al final de la fase del Salvaje Oeste de la era digital, por ello las propuestas de regulación de la actividades en esta área.

Está claro que los gigantes digitales son las nuevas compañías mineras, pero en lugar de oro o plata, estas compañías están minando la vida de millones de personas y compañías en busca de patrones que hagan aún más eficiente en el proceso de marketing. El ideal del marketing, por fin, se está cumpliendo, gracias al consumidor, el rey de este mundo centrado en los datos y centrado en el cliente, que disfrutará de los «servicios y productos personalizados» que tanto anhelan. Esto puede ser realmente bueno y, como profesional de marketing, no veo ningún problema si las compañías actúan con responsabilidad, algo que no fue lo que vimos en este caso, como se quedó evidente en el pedido de disculpas de Mark Zuckemberg. Pero si las empresas de la economía compartida no actúan con la responsabilidad esperada, todo lo que sucederá a los consumidores y la sociedad tendrá un efecto colateral muy dañino, como el lector Paulo Seth comentó brillantemente en mi artículo anterior: «Honestamente, si no te importa tu propia seguridad en línea, es porque mereces toda la miseria que te puede ocurrir».

Data Fest en London: Sysomos Summit

El martes pasado, asistí a Sysomos Summit en Londres, una celebración de tecnología, data science, redes sociales y negocios. El evento también fue el lugar donde Meltwater, una empresa líder en el área de monitoreo de medios de mercado y software de inteligencia de negocios, anunció la adquisición de Sysomos. Jorn Lyseggen, fundador y CEO de Meltwater, presentó los objetivos acerca de esta adquisición, bajo la nueva visión Outside Insight.

Me sorprendió gratamente ver en una de las diapositivas de Lyseggen la mención del impacto de la nueva realidad digital en la toma de decisiones, que es exactamente el tema clave de este mi blog. De hecho, Lyseggent escribió un libro sobre esto. Estoy a mitad de camino en mi lectura y puedo decir que vale 100% la pena.

Para empezar, no es solo un libro sobre gestión datos. Los temas centrales del libro son el cambio, la toma de decisiones y la estrategia. Su tesis clave es que las organizaciones necesitan no solo tener una visión interna de los datos a través, por ejemplo, de los datos gestionados por el software de ERP. Sobre todo, y fundamentalmente, las empresas hoy deben mantener su mirada atenta a factores externos, y para eso pueden aprovecharse de las «migas en línea» (también me gusta llamar «huella digital») que están disponibles en el mundo digital, con origen en las más variadas fuentes. Salir de un paradigma introvertido para extrovertido, en otras palabras.

 El resultado de este cambio de actitud es claro: las empresas empiezan a actuar (no solo a reaccionar) en tiempo real, toman decisiones más inteligentes, como la mirada hacia el futuro, y son capaces de predecir, no explicar, sus acciones en un mercado en constante cambio.

 Muy interesante, también, fue la mención de Lysenggen al Modelo de Fuerza 5 de Michael Porter. Al contrario de aquellos que el modelo está desactualizado, eso demostró que el modelo mantiene su validez como parte esencial del análisis y de la formulación de la estrategia. Con el nuevo paradigma propuesto por el libro, el modelo gana potencia y su aparente naturaleza estática se transforma por completo en una arena vibrante y competitiva en tiempo real.

El evento contó con muchos otros representantes de diferentes empresas, y quizás el punto común más importante entre las presentaciones fue cómo los datos externos pueden ser una fuente de ventaja competitiva (Porter, nuevamente). Las empresas que integran los datos de la manera descrita por Jorn Lysenggen en su libro para «luchar contra creencias preconcebidas y romper con sus prejuicios internos» seguramente evitarán el tipo de visión de túnel o miopía de marketing (concepto de otro autor clásico, Levitt) que afectó a grandes marcas como Kodak o Blackberry. Y sobrevivirán a estos tiempos hipercompetitivos con menos dificultades.

El Mito de la Transparencia: la cara mala de Facebook (2/4)

Una crisis acerca de la transparencia, podríamos resumir así la pesadilla para la reputación de Facebook los hechos ocurridos en estas últimas semanas. O, como la revista Times lo describió de forma brillante: «Todo esto ha provocado duras críticas a la compañía, que rastrea meticulosamente a sus usuarios pero no pudo hacer un seguimiento de adónde fue la información sobre la vida y el pensamiento de esa gente». En esta aparente paradoja reside el primer punto que me gustaría destacar en este segunda parte de mi análisis: El Mito de la Transparencia.

Si uno lee libros como lo de Jeff Jarvis “Partes Públicas”(2011), sabes cómo las redes sociales han creado con éxito una hype sobre las virtudes de la vida en la esfera pública, en un continuo “Self Big Brother”. Aunque en aquel entonces Jarvis estaba de acuerdo con algún tipo de protección a la privacidad de las personas, como las propuestas por la entonces comisaria europea Viviane Reding, él defendía también una visión libertaria, tal vez utópica, de la transparencia que ignoraba un impulso básico detrás de la «publificación» de nuestra vidas de por las compañías de tecnología. Para ellas, los datos tienen valor económico y las redes sociales prosperan comercializando datos que de privados se convirtieron en públicos.

Lo que esta crisis ha sacado a la luz y ha llamado la atención de los reguladores ha sido la culminación de una serie de problemas en relación a la privacidad y fallos de seguridad que involucran a Internet y, más precisamente, a Facebook. Es tal vez el comienzo del «fin de la inocencia» y la comprensión por parte de los usuarios de que la transparencia es buena cuando ocurre en ambos sentidos: desde la parte del productor de los datos (es decir, nosotros) y del comercializador de los datos ( las empresas de redes sociales). El mercado se ha vuelto más maduro. La gente comienza a darse cuenta de que nunca ha habido un verdadero «servicio gratuito» de Google o Facebook. Como lo plantea Viviane Reding: pagamos el servicio con nuestros datos.

Para ser justos, estas compañías nunca han dicho que no usarían los datos de las personas para diversos propósitos, válidos o no, incluyendo hacer toneladas de dinero. Sin embargo, lo que la gente está notando ahora es cuán opacas y descuidadas las empresas de TIC han estado en el manejo de estos datos. Y cuán vulnerables son los usuarios cuando sus mentes pueden ser leídas por compañías de data mining como Cambridge Analytic que usó el controvertido, y al mismo tiempo, brillante experimento realizado por Kosinski et al (2015).

Las personas también se están dando cuenta de cómo las redes sociales crean una forma sutil de vigilancia, al permitir que las organizaciones desconocidas accedan a su visión del mundo, sus relaciones y sus gustos. Al impactar decisiones muy serias como los votos en una elección general, por ejemplo, o referéndums, la opinión pública comienza a darse cuenta de los riesgos de la manipulación en este ciclo de transparencia de datos – extracción de datos – gestión de campañas.