Asociaci贸n de Internautas

Logo 1

驴Privacidad en riesgo? Vigilancia, big data e IoT

驴Privacidad en riesgo? Vigilancia, big data e IoT


La vigilancia y la posibilidad de que la LOPD sea una barrera para las Apps fueron algunos de los temas clave que se llevaron a debate en la mesa 驴Privacidad en Riesgo? Vigilancia, Big Data e IoT (#igfPriv) moderada por Ricard Mart铆nez, representante de la APEP. Emilio Aced, en representaci贸n de la AEPD, Norman Heckh, de Ram贸n y Cajal Abogados y Roberto Luis Ferrer, profesor de la Universidad de Zaragoza dieron su visi贸n sobre estos temas junto a la abogada de la Asociaci贸n de Internautas Ofelia Tejerina.


La mesa redonda sobre "驴Privacidad en Riesgo? Vigilancia, big data e IoT" puso el broche de oro a los debates llevados a cabo en el aula magna. Moderada por Ricard Mart铆nez, representante de la APEP, dicha mesa tuvo como objeto el replanteamiento de t茅rminos como big data, el Internet de las cosas, la seguridad o el incremento de las capacidades del tratamiento de la informaci贸n. 

En base a estas cuestiones, Mart铆nez lanz贸 a los ponentes interesantes preguntas como 驴cu谩l es el precio que se debe pagar en t茅rminos de privacidad? 驴podr铆a establecerse un balance adecuado entre los modelos de negocio y los derechos de las personas? 驴cu谩les son los nuevos retos y estrategias que debemos plantearnos a la hora de informar al usuario?...

Para cerrar su intervenci贸n, el representante de la APEP, aludi贸 a dos ideas presentes en el cap铆tulo de privacidad del informe sobre La Gobernanza de Internet de Espa帽a. La primera de ellas, "la privacidad ser谩 muy importante para disponer de un gobierno democr谩tico de Internet que asegura el pleno respeto de la libertad". La segunda, "en el mundo de las redes, la privacidad opera sin duda como el catalizador que contribuye a salvaguardar el uso correcto de la tecnolog铆a".

Ofelia Tejerina, abogada de la Asociaci贸n de Internautas, se refiri贸 a cuestiones de actualidad que la preocupan "por como se est谩n desarrollando los hechos, las normativas y las noticias en los medios". Hace ya 15 a帽os se empez贸 a hablar de nuevas tecnolog铆as sin embargo, es hoy cuando nos encontramos con cuestiones de inteligencia artificial y los nuevos retos que nos plantean la tecnolog铆a. "Ya no se trata de nuevas tecnolog铆as sino de los retos que nos plantean", asegur贸.

Tejerina comenz贸 hablando del big data y de los riesgos que hoy en d铆a nos permiten con mucha facilidad "evaluar a una persona" con las redes sociales y los resultados de los buscadores. Evaluar a los ciudadanos es algo bastante f谩cil y es esa inteligencia artificial la que se encarga de perfilar a las personas y saber qu茅 es lo que quieren. "Nos encontramos con una estandarizaci贸n de protocolos para poder conocer mejor a las personas y buscar nuestros propios intereses". Esa inteligencia artifical nos lleva a la toma de decisiones y de ah铆 nos vamos a la norma, a la Ley de Proteccion de Datos. Es en este punto donde entra en juego la privacidad.

Otro de los puntos clave que la abogada abord贸 en su discurso fue el espionaje masivo. Un espionaje que realizan los gobiernos para acceder a toda nuestra informaci贸n. Un ejemplo claro es el utilizado con el terrorismo pero 驴qu茅 ocurre cuando ese espionaje se utiliza con fines pol铆ticos o industriales? "Ah铆 es donde est谩 el verdadero problema", asever贸 Tejerina. En este punto, la ponente quiso destacar, entre otros temas, el derecho al olvido y el registro remoto de equipos inform谩ticos. Una propuesta que, en su opini贸n, "est谩 mal redactada". Tampoco quiso dejar de lado el Internet de las cosas que, seg煤n sus palabras, ofrece "muchas utilidades, muchos riesgos y normativas descontroladas".

Roberto Luis Ferrer, representante de la Universidad de Zaragoza, comenz贸 hablando de la condici贸n que en la actualidad se le da a la tecnolog铆a. "Hemos oido muchas veces que la tecnolog铆a no es ni buena ni mala ya que depende del uso que se le d茅. Sin embargo, "la tecnolog铆a no es neutral porque condiciona nuestra vida", sentenci贸. Es, por tanto, "una neutralidad relativa".

Para Ferrer, todo esto ha producido una evoluci贸n de nuestra dimensi贸n social hacia un nuevo concepto jur铆dico que denomin贸 "dimensi贸n digital". Se trata de un nuevo concepto que se debe definir como "ese aspecto de la vida en la que se enmarcan nuestras acciones susceptibles de digitalizaci贸n por terceras personas". Para el representante de la Universiad de Zaragoza, esa digitalizaci贸n de la vida humana se est谩 produciendo sin el consentimiento de la ciudadanos "incluso de aquellos que no hacen uso de la tecnolog铆a" porque sus datos ya est谩n circulando por la red. 

Seg煤n Ferrer, "lo que no nos hab铆amos imaginado y que nos estamos empezando a dar cuenta ahora es que esa sociedad del conocimiento era una sociedad aislada mientras que ahora la masificaci贸n de la informaci贸n volcada en redes sociales genera una sociedad con un conocimiento colectivo que es interdependiente y que da lugar a estrategias de inteligencia colectiva". Este conocimiento colectivo requiere ingentes cantidades de informaci贸n de todo tipo (incluida la personal). Informaci贸n que, seg煤n el ponente, "hay que controlar". 

La funci贸n social de la privacidad fue tambi茅n abordada en el discurso de Ferrer que destac贸 la necesidad de que la libertad y la dignidad de la persona se impongan como l铆mites para que "las personas no se vean reducidas a unos y ceros".

Emilio Aced, representante de AEPD, defini贸 la discriminaci贸n de la informaci贸n en el Internet de las cosas como un riesgo. Respecto a la cuesti贸n planteada por el moderador de la mesa acerca del precio que puede tener o no nuestra privacidad, Aced mostr贸 su desacuerdo a la hora de abordar el problema. "No se trata pagar algo para conseguir algo a cambio cuando hablamos de derechos de las personas". Para el ponente antes de poner en marcha un proceso masivo de datos es necesaria una previa reflexi贸n 茅tica para ver bajo qu茅 condiciones tiene que hacerse porque "no todo lo que es posible hacerse, debe de hacerse".

Para Aced, cuando abordamos este tipo de tratamientos debemos preguntarnos antes 驴a qui茅n beneficia? 驴qu茅 riesgos tiene para las personas cuyos datos se tratan? 驴ese beneficio beneficia a las mismas personas que asumen los riesgos?

La permanencia en el tiempo es tambi茅n un punto importante para el ponente que asegur贸 que "utilizamos big data e inteligencia artificial para hacer predicciones". Pero "estas predicciones no pueden ser eternas sino que deben tener un plazo", asegur贸.

"Hay que ser leal con las personas ya que en muchas ocasiones las personas no son conscientes de lo que puede pasar con sus datos", afirm贸 el ponente que no quiso dejar pasar por alto los riesgos asociados a la protecci贸n de datos.

Para Norman Heckh, representante de Ram贸n y Cajal Abodados, los usuarios somos usarios de derechos "pero tambi茅n de obligaciones". A nadie escapa que un determinado comportamiento deja huella. De hecho, "ahora tenemos medios que hacen que ese recuerdo sea m谩s amplio", asegur贸 el ponente. De  esta forma, en la medida que el usuario se expone p煤blicamente debe ser consciente de que que eso puede tener una transcencia. En este punto, Heckh apel贸 a la responsabilidad del usuario.

La conservaci贸n de datos, la informaci贸n que se le da a los usuarios que, seg煤n el ponente, en la pr谩ctica no se lee nadie (un ejemplo son las cookies) y el big data fueron otros de los temas que Heckh trat贸 en su intervenci贸n.
FUENTE: CLUB DE INNOVACI脫N