La configuración interminable de cookies que aparecen para cada sitio web se siente un poco como una broma de cumplimiento por parte de un Internet empeñado en no cambiar. Es muy molesto. Y se siente un poco como una venganza contra los reguladores por parte de los mercados de datos, dando mala fama al Reglamento General de Protección de Datos (GDPR) y por lo que podría parecer que los burócratas políticos, una vez más, han interferido torpemente con el progreso de la innovación que de otro modo sería fluido. .

Sin embargo, la verdad es que la visión de la privacidad presentada por el GDPR impulsaría una era de innovación mucho más emocionante que la tecnología sórdida actual. Sin embargo, tal como está hoy, simplemente no llega a hacerlo. Lo que se necesita es un enfoque de infraestructura con los incentivos adecuados. Dejame explicar.

Los metadatos granulares que se recopilan entre bastidores

Como muchos de nosotros sabemos ahora, las computadoras portátiles, los teléfonos y todos los dispositivos con el prefijo “inteligente” producen una cantidad incesante de datos y metadatos. Tanto es así que el concepto de una decisión soberana sobre sus datos personales apenas tiene sentido: si hace clic en “no” a las cookies en un sitio, un correo electrónico habrá enviado silenciosamente un rastreador. Elimina Facebook y tu madre habrá etiquetado tu cara con tu nombre completo en una foto de cumpleaños antigua y así sucesivamente.

Lo que es diferente hoy (y por qué, de hecho, una cámara de circuito cerrado de televisión es una representación terrible de la vigilancia) es que incluso si elige y tiene las habilidades y el conocimiento para proteger su privacidad, el entorno general de recolección masiva de metadatos aún lo dañará. No se trata de sus datos, que a menudo se cifrarán de todos modos, se trata de cómo los flujos de metadatos colectivos, no obstante, revelarán cosas a un nivel detallado y lo mostrarán como un objetivo: un cliente potencial o un sospechoso potencial en caso de que sus patrones de el comportamiento se destaca.

Relacionado: Las preocupaciones sobre la privacidad de los datos están aumentando, y blockchain es la solución

Sin embargo, a pesar de lo que pueda parecer, todo el mundo quiere privacidad. Incluso gobiernos, corporaciones y especialmente agencias militares y de seguridad nacional. Pero quieren privacidad para ellos mismos, no para los demás. Y esto los lleva a un pequeño acertijo: ¿cómo pueden las agencias de seguridad nacional, por un lado, evitar que las agencias extranjeras espíen a sus poblaciones y al mismo tiempo construir puertas traseras para que puedan fisgonear?

Los gobiernos y las corporaciones no tienen el incentivo de brindar privacidad

Para decirlo en un lenguaje eminentemente familiar para estos lectores: la demanda está ahí pero hay un problema con los incentivos, por decirlo suavemente. Como ejemplo de cuánto problema de incentivos existe en este momento, un informe de EY valora el mercado de datos de salud del Reino Unido solo en $ 11 mil millones.

Dichos informes, aunque son muy especulativos en términos del valor real de los datos, producen sin embargo una sensación irresistible de perderse, o FOMO, que conduce a una profecía autocumplida, ya que todos se lanzan hacia las ganancias prometidas. Esto significa que aunque todos, desde individuos hasta gobiernos y grandes corporaciones de tecnología, pueden querer garantizar la privacidad, simplemente no tienen incentivos lo suficientemente fuertes para hacerlo. El FOMO y la tentación de colarse por una puerta trasera, para hacer que los sistemas seguros sean un poco menos seguros, es simplemente demasiado fuerte. Los gobiernos quieren saber de qué están hablando su población (y la de otros), las empresas quieren saber lo que piensan sus clientes, los empleadores quieren saber qué están haciendo sus empleados y los padres y maestros de escuela quieren saber qué están haciendo los niños.

Existe un concepto útil de la historia temprana de los estudios de ciencia y tecnología que de alguna manera puede ayudar a aclarar este lío. Esta es la teoría de la asequibilidad. La teoría analiza el uso de un objeto por su determinado entorno, sistema y cosas que ofrece a las personas: el tipo de cosas que se vuelven posibles, deseables, cómodas e interesantes de hacer como resultado del objeto o del sistema. Nuestro entorno actual, por decirlo suavemente, ofrece la irresistible tentación de la vigilancia a todos, desde los dueños de mascotas y los padres hasta los gobiernos.

Relacionado: La economía de los datos es una pesadilla distópica

En un excelente libro, la ingeniera de software Ellen Ullman describe la programación de algún software de red para una oficina. Ella describe vívidamente el horror cuando, después de haber instalado el sistema, el jefe se da cuenta con entusiasmo de que también se puede usar para rastrear las pulsaciones de teclas de su secretaria, una persona que había trabajado para él durante más de una década. Cuando antes, había confianza y una buena relación de trabajo. Los poderes novedosos convirtieron inadvertidamente al jefe, a través de este nuevo software, en un asqueroso, escudriñando los ritmos de trabajo diarios más detallados de las personas que lo rodeaban, la frecuencia de los clics y la pausa entre las pulsaciones de teclas. Este monitoreo sin sentido, aunque por algoritmos más que humanos, generalmente pasa por innovación en la actualidad.

La privacidad como hecho material e infraestructural

Entonces, ¿dónde nos lleva esto? Que no podemos simplemente poner parches de privacidad personal en este entorno de vigilancia. No obstante, sus dispositivos, los hábitos de sus amigos y las actividades de su familia estarán vinculados y lo identificarán. Y los metadatos se filtrarán independientemente. En cambio, la privacidad debe asegurarse de forma predeterminada. Y sabemos que esto no sucederá solo por la buena voluntad de los gobiernos o las empresas de tecnología porque simplemente no tienen el incentivo para hacerlo.

El GDPR con sus consecuencias inmediatas se ha quedado corto. La privacidad no debería ser solo un derecho que intentamos desesperadamente hacer clic en cada visita al sitio web, o que la mayoría de nosotros solo podemos soñar con ejercer a través de costosos casos judiciales. No, tiene que ser un hecho material y de infraestructura. Esta infraestructura tiene que ser descentralizada y global para que no caiga en los intereses de intereses nacionales o comerciales específicos. Además, debe tener los incentivos adecuados, recompensando a quienes administran y mantienen la infraestructura para que la protección de la privacidad se vuelva lucrativa y atractiva, mientras que dañarla se vuelve inviable.

Para terminar, quiero señalar un aspecto de la privacidad enormemente subestimado, a saber, su potencial positivo para la innovación. La privacidad tiende a entenderse como una medida de protección. Pero, si la privacidad fuera simplemente un hecho, la innovación impulsada por datos de repente se volvería mucho más significativa para las personas. Permitiría un compromiso mucho más amplio con la configuración del futuro de todas las cosas basadas en datos, incluido el aprendizaje automático y la inteligencia artificial. Pero más sobre eso la próxima vez.

Los puntos de vista, pensamientos y opiniones expresados ​​aquí son solo del autor y no reflejan ni representan necesariamente los puntos de vista y opiniones de Cointelegraph.

Jaya Klara Brekke es el director de estrategia de Nym, un proyecto global de privacidad descentralizada. Es investigadora del Instituto Weizenbaum y tiene un doctorado. del Departamento de Geografía de la Universidad de Durham sobre la política de los protocolos de blockchain, y es un asesor experto ocasional de la Comisión Europea en tecnología de contabilidad distribuida. Habla, escribe y realiza investigaciones sobre la privacidad, el poder y las economías políticas de los sistemas descentralizados.