llegan

#DebateAbiertoCon Replicante Legal (@replicantelegal)

Replicante Legal: Según los últimos estudios, parece que la inteligencia de las máquinas hoy es equiparable a la de un niño de cuatro años. Ruth cuestiona en un tuit que la inteligencia emocional artificial sea posible y plantea si en ese caso estaríamos creando humanos, qué nos diferenciaría de ellos y si esas máquinas deberían tener derechos.  Allá va mi punto de vista sobre esos y otros temas que han surgido durante el debate.

¿Tienen inteligencia emocional los robots?

Estoy de acuerdo en que hoy no podemos considerar que los robots están dotados de inteligencia emocional. Lo más cercano que tenemos es Pepper.

Sin embargo creo que en pocos años la situación será distinta. El propio informe del MIT dice hemos necesitado 60 años para llegar hasta este nivel pero que en los siguientes 6 años se van a lograr unos avances espectaculares porque las tecnologías relacionadas con la inteligencia artificial están creciendo a un ritmo exponencial.

Uno de los mayores expertos mundiales en estos temas es Nick Bostrom. En esta genial charla de TED, nos expone muy claramente cómo ocurrirá ese desarrollo exponencial y también nos alerta de los peligros de las máquinas súper inteligentes.

Creo que con el tema de las emociones de los robots va a suceder algo parecido. Les costará un tiempo llegar a tener la capacidad emocional de un niño pequeño, pero de ahí a la de un adulto, no pasará mucho. A día de hoy sólo son capaces de reconocer unas cuantas emociones y copiarlas pero hay varias instituciones trabajando en algoritmos emocionales y creo que pronto veremos los resultados de esa labor. De hecho, algunos expertos hablan del 2030 como fecha en la que los robots tendrán una dimensión emocional y psicológica y para esa fecha solo faltan 15 años…

Por cierto ¿qué nivel de inteligencia emocional les vamos a pedir? Lo digo porque hay personas con menos empatía y sentimientos que una escoba, pero ese es otro debate.

Ruth Benito: Pero ¿qué entendemos por inteligencia emocional? 

En la Wikipedia se define inteligencia emocional como el “conjunto de habilidades psicológicas que permiten apreciar y expresar de manera equilibrada nuestras propias emociones, entender las de los demás, y utilizar esta información para guiar nuestra forma de pensar y nuestro comportamiento”.

Partiendo de esta definición, y aunque probablemente queda aún bastante por delante, creo que sí se están produciendo avances en la interpretación de las emociones humanas por los robots sociales así como en la capacidad de réplica o copia de tales emociones.

Sin embargo, como apuntaba en Twitter, queda pendiente la parte correspondiente a las propias emociones, pues el hecho de que los robots puedan imitar reacciones humanas está muy lejos de significar que puedan experimentar los sentimientos que provocan tales reacciones. En este sentido, coincido plenamente con la joven AJung Moon cuando dice que los ingenieros han de cuidar mucho el vocabulario a emplear en la presentación de sus trabajos.

En este punto es donde más escéptica me muestro, fundamentalmente por dos motivos: de un lado, porque requiere que los robots sean capaces de sentir, lo que a día de hoy no se da (supongo que ello implica transformar a lenguaje electrónico o digital los impulsos químicos y biológicos del cuerpo humano y aun así no sé si eso sería sentir del mismo modo que lo hacemos las personas o más bien algo parecido a “leer los sentimientos”), y de otro, porque para que lo anterior sea posible primero tendríamos que entendernos a nosotros mismos, o entender cómo funcionan esos procesos químicos y biológicos. Lo explica muy bien Elena García Armada,  investigadora en el Centro de Automática y Robótica (UPM-CSIC), en “Robots”, libro del que podemos leer al respecto un extracto en el blog del CSIC “Ciencia para llevar”.

No obstante, la ciencia es poderosa descubriéndose a sí misma, de modo que haremos bien el imaginarnos en un escenario donde todo es posible.

RL: Efectivamente. Seguro que sabes que Estados Unidos está trabajando en el proyecto denominado “Brain Iniciative” para comprender cómo el cerebro piensa, aprende y recuerda y la Unión Europea se ha embarcado en una aventura parecida (“Human Brain Project”), con la finalidad de desarrollar tecnologías de computación que simulen el funcionamiento del cerebro así como de crear nuevos tratamientos para las patologías mentales.

brain

Son proyectos con inversiones millonarias y es probable que, cuando terminen, hayamos recopilado una información muy valiosa que nos permita conocer en profundidad la única parte del ser humano que todavía es un misterio para la ciencia.  Creo que va a tener un efecto parecido al que tuvo para la genética el descifrar el genoma humano completo.

Además, las neurociencias han tenido un desarrollo espectacular en los últimos años y la aparición de aparatos de imagen por resonancia magnética, de escáneres electroencefalográficos y de técnicas de estimulación cerebral profunda, nos está permitiendo conocer cómo trabajan las neuronas y otras partes del cerebro con un nivel de detalle nunca visto hasta ahora. Michio Kaku lo explica muy bien en su reciente libro “El futuro de nuestra mente”.

En resumen, creo que en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo utilizando un ordenador. Cuando llegue ese momento también podremos entender mucho mejor la forma en la que cerebro procesa las emociones. Ten en cuenta que un bebé humano tarda muchos años en reconocer y expresar emociones. Este aprendizaje se produce por la interacción con sus padres y otras personas de su entorno. Si le dejáramos en una isla solo (sin otros seres vivos)  desde muy pequeño y durante muchos años, aventuro que su nivel de inteligencia emocional sería muy pobre.

A la inversa, cuando conozcamos mejor cómo maneja el cerebro las emociones, podremos afinar los algoritmos de los robots sociales para que aprendan de forma gradual a detectarlas y expresarlas en las interacciones con las personas. Sería un proceso parecido al de educar a un niño solo que más rápido y escalable.

RB: Pues no tenía ni idea de los dos proyectos que mencionas sobre el cerebro humano, pero últimamente me planteo con más frecuencia si no fue un error elegir letras puras ;P

Te veo demasiado optimista con eso de “en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo”, yo soy algo más escéptica. En todo caso, imaginemos la variedad de implantes o prótesis cerebrales o neuronales que podrían crearse y, en este punto, te propongo, y propongo a los lectores, un ejercicio: Imaginemos una persona cualquiera y vayamos sustituyendo partes de su cuerpo por prótesis (a lo Robocop), ¿en qué momento, o con la sustitución de qué órgano, dejaría, en su caso, de ser esa persona y pasaría a ser una máquina?

Es posible que un bebé humano tarde algún tiempo en identificar y reconocer emociones complejas, pero desde el primer momento expresa emociones (que se lo digan a los padres primerizos cuando cada dos horas les despiertan los berridos de la criaturita durante, al menos, el primer mes de vida), y las expresa porque las siente, no porque esté programado para replicarlas.

Habrá quien diga que el genoma humano ya contiene una cierta programación con la que venimos de serie las personas (genotipo, ¿un sistema operativo?). A ella además luego se van añadiendo otras fuentes de experiencia y aprendizaje en cada caso que ayudan al continuo desarrollo de cada uno de nosotros (aspectos sociales, culturales, familiares etc.). Del mismo modo un robot puede venir con una programación base que posteriormente desarrollaría con tecnología “machine learning”.

Pues bien, tomemos el ejemplo del bebé, que llora desde el primer momento que tiene hambre. Es, por tanto, algo que ha heredado genéticamente, no lo ha aprendido por verlo en otros, pero el llanto se activa como reacción que, de algún modo, se sabe que facilitará el remedio al hambre. En los robots se trataría de algo con lo que ya vendrían programados, pero, mientras en el ser humano lo que activa que el llanto se ponga en marcha es la sensación de hambre, ¿qué sería lo que lo activaría en el robot?

Preguntas si llegaremos a afinar los algoritmos de los robots sociales y, en relación con esto último a lo que apunto, tenemos los algoritmos genéticos y la programación genética, inspirados en la evolución biológica, que quizá pudieran ayudar mucho en ese terreno.

RL: ¿Esos robots serían humanos? ¿Qué nos distinguiría de ellos?

Hace unos días se publicaba un artículo con el siguiente titular “Ya es posible transferir la personalidad y actitud de una persona a un robot ciberconsciente”. En la entrevista nos cuentan que han creado un humanoide (Bina 48), que está inspirado en su versión humana, y que “pasa constantemente de su identidad como robot a la de la humana en la que está basada”.

replicanteOtro ejemplo reciente: ninguna máquina había sido capaz de superar el test de Turing hasta que -en junio del año pasado- un bot llamado Eugene Goostman logró convencer a un tercio del jurado que le examinaba de que era un joven adolescente ucraniano de 13 años de edad.

Creo que cada vez va a ser más difícil distinguir a las máquinas con inteligencia artificial de las personas, sobre todo si interactúas con esas de forma no presencial. Si esto sigue así, vamos a tener que pedir ayuda a Harrison Ford.

¿Qué dice el Código Civil a este respecto? El artículo 30 establece que “la personalidad se adquiere en el momento del nacimiento con vida, una vez producido el entero desprendimiento del seno materno”. En consecuencia un robot por muy sofisticado y humano que fuera, no puede tener personalidad según el texto actual de la norma civil.

En cualquier caso, tengo curiosidad por saber cómo van a reaccionar los jueces cuando empiecen a llegar casos en los que están implicados ciborgs.

RB: Pues sí, porque dudo mucho que asistamos a respuestas por parte de legisladores y jueces como las del cuento “El hombre bicentenario”.

Yo no negaría tan rotundamente la posibilidad de atribuir personalidad a un robot. La RAE define persona como “individuo de la especie humana”, la naturaleza humana como el “conjunto de todos los hombres” y hombre como “ser animado racional, varón o mujer”. Podemos seguir buscando términos, pero me temo que seguiríamos encontrando interpretaciones capaces de amparar la comprensión de los robots sociales como humanos.

Por otra parte, el propio Código Civil nos dice en su art. 3 que las normas se interpretarán, entre otros posibles criterios, atendiendo a “la realidad social del tiempo en que han de ser aplicadas” y en su art. 4 que “procederá la aplicación analógica de las normas cuando éstas no contemplen un supuesto específico, pero regulen otro semejante entre los que se aprecie identidad de razón”.

Si buscamos los significados de nacer (dicho de una cosa) y vida, conceptos contenidos en el citado art. 30 C.c., unido a las definiciones ya dadas de persona y hombre y a estos criterios de interpretación y aplicación de las normas, veremos que no parece tan descabellado encajar la personalidad, a efectos jurídicos, en los robots sociales. En cuanto al obstáculo del “desprendimiento del seno materno”, no creo que pueda ser elemento decisorio, pues ¿acaso no consideraríamos persona al semejante gestado en una especie de tanque sustitutivo de un vientre de mujer?

Sin embargo es evidente que hombres y robots no somos lo mismo, con independencia de que ambos fuéramos merecedores de iguales o distintos derechos. Se hace preciso, pues, averiguar qué es aquello que nos diferencia y esto implica concretar qué es el ser humano y qué es la personalidad o cualidad de persona. Tenemos así que el estudio de la robótica, en mi opinión, tendrá que dar lugar, o está dando lugar ya, a una nueva corriente de filósofos (ingenieros, abogados, científicos, sociólogos…) que tratarán de dar respuesta a todas estas cuestiones que se hace necesario abordar y que, entre otras cosas, pueden hacer surgir nuevas configuraciones legales.

RL: Un pequeño apunte respecto a esto último. Para algunos expertos, la magnitud de los cambios que provocarán estas nuevas tecnologías en nuestro sistema jurídico es tal, que conviene que empecemos a pensar y desarrollar una lex robótica especial.

El principal defensor de esa tesis es el profesor americano Ryan Calo, que considera  que la robótica tiene características especiales que la singularizan  y propone incluso crear un organismo regulador ad-hoc para que tutele todo lo que tiene que ver con este campo  puesto que, en su opinión, es la única manera de dar una respuesta satisfactoria a la problemática que van a generar.

El tema de la inmortalidad

Los nuevos desarrollos técnicos también cuestionan la necesidad de la muerte. En la misma entrevista que mencionábamos antes se dice que “gracias a la tecnología podremos conseguir que la mente viva para siempre. Si es cierto que podemos capturar información suficiente de tu mente y que sea transferida a un robot, entonces, literalmente, habrá cientos de versiones de ti y en algún momento esas versiones podrán abandonar el planeta”.

Es decir, algo muy parecido a lo que se cuenta en la película Transcendence de Johnny Depp. Puede parecer ciencia ficción pero lo están afirmando los defensores de la singularidad tecnológica así como científicos de la talla de Stephen Hawking  o Marvin Minsky.

¿Cómo va a reaccionar el derecho frente a estos desarrollos que cuestionan los pilares sobre los que se basa el concepto de persona?

RB: Entiendo que, del mismo modo que el hecho de que un robot pueda emular emociones o imitar comportamientos, no significa que los sienta realmente, el hecho de “copiar la mente” de una persona y meter esa copia en una máquina o hacerla parte de su sistema operativo, no significa que la consciencia de esa persona se encuentre en la máquina de modo tal que se perciba a sí misma en dicho nuevo entorno. Aquí radica, en mi opinión, en relación con la entrevista comentada, la enorme diferencia con Transcendence.

Pero, en todo caso, se plantean diversos interrogantes desde la perspectiva legal: ¿Tendrá el “replicado” algún derecho sobre las versiones de sí mismo? ¿Y sobre las creaciones que una de esas versiones pueda generar? (derechos de autor, patentes…) Por otra parte, ¿merecerán esas versiones algún tipo de protección o de limitación en cuanto a su uso? Pensemos, por ejemplo, que su adquirente diera un trato humillante u ofensivo (o lo que resultara tal tratándose de un humano) a la versión de una persona. Y en el orden de las responsabilidades, ¿podría atribuírsele alguna a la persona versionada en relación con los ilícitos cometidos por una máquina con capacidad de decidir basada en esa personalidad transferida?

RL: ¿Deben tener derechos los robots?

La abogada Kate Darling plantea abiertamente la conveniencia de otorgar ciertos derechos a los robots sociales, tomando como base la legislación para prevenir el maltrato animal.

Creo que Darling lleva el planteamiento un poco al extremo pero coincido con una de las afirmaciones que se hace al final de su estudio: atribuir derechos a entidades que no son humanas no es una práctica nueva. Ya lo hicimos con las personas jurídicas e incluso ahora le hemos dado una nueva vuelta de tuerca y asumimos que éstas pueden cometer delitos.

La otra cara de la moneda es ¿deben tener obligaciones esos robots inteligentes? La cuestión es relevante a los efectos de la atribución de responsabilidad por sus actuaciones. El tema daría para un largo debate jurídico pero, por ir al grano, creo que vamos a tener que repensar la noción de personalidad para crear una nueva categoría (en un artículo de Replicante me animo a llamarla “personalidad mecánica”).

RB: Darling apunta como posible causa para otorgar derechos o protección a algunos animales, al hecho de que los humanos rechazamos ciertos tratos hacia ciertos animales y en consecuencia, de igual modo, podríamos conceder algunos derechos a los robots sociales, con independencia de sus aptitudes.

Tal justificación respecto a los derechos de los animales, parece que trata de evitar nuestro sufrimiento, desagrado o malestar al saber que el animal sufre o ha sufrido, más que el sufrimiento en sí del animal (sin duda esto explicaría por qué no se aplican por igual a todas las especies animales). Pero ¿podemos hacer extensivo este razonamiento hacia los robots cuando sabemos que (a día de hoy) éstos no sienten?

En todo caso, los motivos señalados por Darling en realidad no generan derechos propios de los robots, ya que, en todos ellos, el bien jurídico objeto de protección no lo es el robot en sí (es como si dijéramos que las propiedades inmuebles tienen derecho a no ser allanadas).

Parece que, directa o indirectamente, en el reconocimiento de derechos juegan un importante papel factores tales como ser sensible, capacidad de sufrir, ser consciente… Y en la imposición de obligaciones pesa en gran medida la capacidad de decisión o control que uno tenga, la intencionalidad y la voluntariedad. 

En cuanto al reconocimiento de una personalidad, efectivamente no es algo nuevo extender dicho concepto a seres o entidades distintos a los hombres. Así, tenemos ciertamente las empresas, personas jurídicas sujetos de obligaciones y de derechos propios (derecho al honor), pero también las personas no humanas animales reconocidas, en Argentina la orangután Sandra y en Brasil la chimpancé Suiza (pdf), que fue finalmente envenenada. En este sentido Nonhuman Rights Project mantiene la lucha por el reconocimiento de derechos en favor de animales.

RL: Lo de atribuir algún tipo de personalidad legal a una cierta categoría de máquinas puede parecer exagerado pero no debemos olvidar que el derecho se adapta a la realidad y a veces incluso la manipula porque considera que así se beneficia un bien superior.

Respecto de lo primero, el derecho romano reconocía la esclavitud porque estaba socialmente aceptada en aquella época. Hoy está abolida en todos los países desarrollados porque nadie concibe que un ser humano pueda ser el propietario de otra persona. Algo parecido podemos decir de la segregación racial o del derecho al voto de las mujeres. Pero es que también existen ocasiones en las que las normas modifican la realidad. Es el caso por ejemplo de la adopción, que “borra” el pasado biológico de un menor y le atribuye una nueva filiación, ex artículo 178 del Código Civil.

No me quiero extender más porque es un tema que trato más en detalle en un artículo que se va a publicar en breve en el monográfico sobre robótica de la nueva revista de privacidad y derecho digital de RDU, que dirige mi querido amigo Pablo García Mexía y a la que os emplazo a suscribiros porque es magnífica.

RB: En relación con esta cuestión, y por dejar a un lado la teoría de la personalidad como elemento generador de derechos y obligaciones, vuelvo al punto de las emociones. Quizá el ser capaces de sentir emociones, incluso emociones muy complejas que nos cuesta verbalizar pero que tenemos aprehendidas e identificadas en algún nivel de nuestra consciencia (o genoma y cerebro), es lo que caracteriza a la inteligencia humana. Nuestro sentido del humor, la ironía, la creatividad, la ilusión, la imaginación… Se me hace muy difícil aceptar que todas estas capacidades puedan desarrollarse en máquinas que sí sepan interpretar, leer y copiar emociones pero que no puedan experimentarlas “en carnes propias”.

Quizá estas emociones y capacidades complejas, o en un nivel tal de complejidad que sólo se da en el ser humano, sean lo que haga necesario que tengamos unas normas de convivencia. Por no extenderme demasiado pondré sólo dos ejemplos: 1) el amor y la regulación del matrimonio y de los derechos y obligaciones entre familiares y 2) la creatividad y los derechos de propiedad intelectual.

derechos

Personalmente, llegado el caso de que los robots sociales pudieran efectivamente sentir y tener consciencia de sí mismos, creo (aún hay mucho por reflexionar) que sería partidaria de que fueran considerados personas no humanas artificiales o personas mecánicas y sujetos de derechos y obligaciones.

RL: Aspectos éticos

Es una de las cuestiones más relevantes de este debate desde mi punto de vista. Hay un proyecto muy interesante que ha financiado la Comisión Europea y que se ha publicado hace unos meses. Se llama Robolaw y el resultado es un informe que analiza las cuestiones éticas y legales que pueden plantear los robots, y ofrece principios y directrices que permitan orientar a los reguladores. El documento es extenso pero es de lo mejor que he leído últimamente.

Este tema de las cuestiones morales está ahora de moda por la problemática que plantean los coches sin conductor. Planteo dos preguntas para ilustrar la cuestión:

En caso de accidente inevitable ¿los algoritmos que controlarán a los futuros coches sin conductor deberían dar prioridad al número de vidas salvadas, a los individuos potencialmente involucrados o valorar quién cumplía las normas de circulación?

En el supuesto de que no haya otra opción ¿debería el coche sacrificar a su ocupante con un giro brusco que lo haga caer por un precipicio para evitar matar a los niños que llenan un autobús escolar?

Es una nueva derivada del debate filosófico que en inglés denominan “trolley paradox”. Obviamente también aparece aquí el debate jurídico relativo a la atribución de responsabilidad. Ambos son apasionantes pero creo que no deberían frenar la introducción de estas nuevas tecnologías. No debemos olvidar que cada mes mueren más de 100.000 personas en el mundo por accidentes de tráfico y que el 90% de dichos accidentes está causado por errores humanos.

RB: Fantástico análisis el de Robolaw, por el vistazo que he podido echarle, que dejo como objetivo para una lectura pormenorizada en cuanto me sea posible.

Desde luego, no creo que a nadie que se acerque un poco a la robótica le pase inadvertida la cantidad de implicaciones éticas que ésta supone. Como muchas de las tecnologías que en los últimos años se están desarrollando, y al igual que ya sucede con las evaluaciones de impacto en materia de protección de datos, hay autores, como David Wright y Michael Friedewald, que alertan de la necesidad de realizar, con carácter previo al desarrollo de nuevos proyectos de ICT, evaluaciones de impacto ético (EIA, en sus siglas en inglés Ethical Impact Assessment), e incluso sugieren ya alguna metodología para ello.

Sin duda, la robótica es una de las tecnologías sobre la que más se ha hablado y escrito desde la perspectiva ética. De hecho, existe el término “roboética” (roboethics), que se atribuye a Gianmarco Veruggio, del que animo a ver esta conferencia, y ya en 2004 se celebró el Primer Simposio Internacional sobre Roboética.

Podríamos hablar sobre todas estas cuestiones durante días y días, pero amigo Replicante, creo que con esto los lectores tienen una buena aproximación a la robótica y a la importancia de un enfoque ético y legal sobre la materia.

Terminaré con un par de reflexiones que planteo a los lectores:

1 – ¿Con qué fin queremos crear robots con inteligencia humana, que puedan tener emociones como los humanos y con capacidad de aprendizaje?

2 – ¿Estamos de acuerdo con la siguiente cita de Sydney J. Harris: “The real danger is not that computers will begin to think like men, but that men will begin to think like computers” (el verdadero peligro no es que las computadoras empiecen a pensar como los hombres, sino que los hombres empiecen a pensar como las computadoras)? ¿Seguro? ;)

 

Autores: Replicante Legal y Ruth Benito Martín.

Imágenes: La imagen destacada es de ankakay, el resto de imagenes han sido diseñadas por Freepik

Post publicado simultáneamente en el blog de Replicante Legal.

aprovecho

“Aprovecho para saludar a mi mamá” – #DebateAbiertoCon María González

Si en tu empresa disponéis de un sistema de videovigilancia, seguro estaréis familiarizados con los carteles que han de colocarse avisando de la existencia de aquél a efectos de la normativa sobre protección de datos personales. Sí, hombre, sí, este cartel:

cartel_AEPD

¿A que sí?

Pero igual no sabéis que no tiene por qué ajustarse exactamente a ese modelo, y que puede, digamos, “customizarse” o “tunearse”. Le he pedido a mi colega y amiga María González, que sabe mucho de esto, que comparta su opinión al respecto.

Hola Ruth. Un placer compartir contigo este nuevo #DebateAbiertoCon que surge (confesemos :P) tras una comida y esas ganas de debatir que nos caracteriza… En la búsqueda de temas se nos cruza un tuit de nuestra compañera Jeimy Poveda (@JeimyPove), en el que se plantea la licitud, o adecuación a la normativa, de “tunear” (o personalizar) los carteles de videovigilancia. Una materia donde sin duda no sólo hablaremos de LOPD, sino también de marketing, comunicación y marca.

Jeimi

En este sentido, también nuestro compañero Javier Sempere (@fjavier_sempere) , en septiembre del pasado año, realizó un experimento en búsqueda de carteles de videovigilancia.

Pero vamos a ello, por poner en contexto, creo que deberíamos comenzar por analizar, al menos a grandes rasgos, qué es lo que establece expresamente la normativa, no crees?

Comencemos por explicar que la imagen es un dato de carácter personal y, por tanto, la captación de imágenes por medio de sistemas de videovigilancia queda sujeta a la normativa sobre protección de datos personales (Directiva 95/46/CE, LOPD y Reglamento de la LOPD). Además, la Agencia Española de Protección de Datos (AEPD) dictó la Instrucción 1/2006 sobre el tratamiento de datos personales con fines de vigilancia a través de sistemas de cámaras o videocámaras.

Es esta Instrucción 1/2006 la que regula concretamente el cartel del que hablamos en este post, como uno de los medios, obligatorio, para informar a los afectados en supuestos de videovigilancia, y en cuanto a su contenido y diseño dispone que “se ajustará a lo previsto en el Anexo” de dicha Instrucción.

El punto 1 del Anexo establece que debe contener:

1.- Una referencia a la “LEY ORGÁNICA 15/1999, DE PROTECCIÓN DE DATOS”.

2.- La finalidad del tratamiento: “ZONA VIDEOVIGILADA”.

3.- Identificación de la empresa responsable a la que el afectado puede dirigirse para consultar sobre el tratamiento de sus datos.

Y el punto 2 del Anexo,  recoge como modelo de cartel informativo el que puede descargarse en la propia página web de la AEPD (primera imagen de este post).

Efectivamente, es por todos conocidos el cartel amarillo de videovigilancia de la AEPD, aunque hemos de señalar que en muchos casos, dicho cartel aparece completamente vacío de información, siendo este aspecto no válido, pues falta entre la información requerida los datos del responsable del tratamiento.

Muchos son los que se preguntan a qué grado de “customización” se puede someter a los carteles de videovigilancia, a través de: la modificación de los colores (para que, por ejemplo, pueda adaptarse a la imagen corporativa de la empresa), la incorporación de elementos tecnológicos como Códigos QR, aspectos relativos al tamaño y disposición de los carteles, y en todos los casos, se dé cumplimiento a los requisitos normativos.

Desde mi punto de vista un cartel de videovigilancia puede “customizarse” o “personalizarse” siempre que se cumplan los requisitos formales establecidos por la normativa, que no son otros que los indicados en el citado Anexo I ya referenciados por Ruth, y por supuesto que los mismos cumplan la finalidad principal por la cual son exigibles, es decir, informar al usuario de que puede estar siendo grabado.

Así pues, debemos distinguir varios aspectos:

  • Customización / Personalización de colores para adaptarlo a imagen corporativa.
  • Incorporación nuevos elementos (códigos QR, ….)
  • Formatos y accesibilidad (audio, vídeo…)
  • Tamaño

Exacto María. Para una tienda de marcos, puede resultar tentador enmarcar su cartel de videovigilancia, y quedaría simpático, pero ¡ojo!, porque si ello hace que el aviso “se camufle” entre todos los marcos exhibidos en la pared, no se estará cumpliendo con el art. 5 LOPD, que exige que la información sea facilitada de modo “expreso, preciso e inequívoco”. Sería lo mismo si una tienda de electrodomésticos, reprodujera el cartel mediante vídeo, en una pantalla de televisión colocada junto al resto de modelos en venta retransmitiendo distintos canales.

En cambio, este último sistema puede ser perfectamente válido para una librería, y en una tienda de productos de señalización, y según tenga éstos distribuidos en el establecimiento, el uso de un marco llamativo puede ayudar a que a nadie le pase desapercibido.

señalizacion

En relación con el formato, y siendo el auditivo totalmente compatible con el resto de formatos, piénsese si no tendría mucho más sentido que el aviso de videovigilancia, para una tienda de productos para ciegos, fuera un mensaje sonoro, o en braille en la puerta de entrada al local. Y aquí voy a dejar el punto porque el tema de los discapacitados y la protección de datos, y otros muchos derechos, da para mucho, baste decir que tenemos una asignatura pendiente y que gracias a la tecnología podemos, y debemos, ir avanzando en este terreno.

En cuanto al tamaño del cartel, éste debe ser suficiente para que pueda ser visto, leído y entendido. Dependerá mucho del lugar donde el cartel se sitúe, siendo en ocasiones muy conveniente colocar varios, en función del área que es videovigilada. Claro que, por poner otro ejemplo, para un gran almacén de productos de pintura, podría ser adecuado pintar el cartel de videovigilancia en toda una pared de 3×4 metros.

En efecto, Ruth, en materia de videovigilancia es esencial tener en cuenta diversos aspectos que nos permitan garantizar que todos los afectados pueden acceder a la información sobre la misma; dimensiones, disposición, formato, colores, e incluso, y como bien apuntabas, que la información esté disponible en otros soportes como puede ser el audio.

Hemos de tener en cuenta además, que aunque en la mayoría de los casos la videovigilancia es realizada con motivos de seguridad, cada vez son más frecuentes la utilización de esta clase de sistemas para otras finalidades adicionales (control laboral, estudios de mercado, ….), que deberán ser expresamente informadas en el correspondiente cartel de videovigilancia y en las cláusulas de privacidad que deben acompañar al mismo, o al menos deben estar a disposición de los afectados, y es que, como bien apunta este artículo “Sonría! Nos vigilan!”.

Para finalizar, además de dar las gracias al karma ;) (que nos ha empujado a que este post no quedara en el trastero digital) queremos “premiar” con un bonus a los lectores que hayan llegado hasta aquí, así que os dejamos a continuación unos cartelitos que nos hemos encontrado por este mundo “lopediano” y que por sí solos no cumplirían con lo que exige la normativa:

atencion las24h

zona2

Y ni quiénes somos, ni de dónde venimos ni a dónde puedes ir a ejercitar tus derechos ARCO (¿pa qué?)

IMG_8252

Y encima pixelado :P

zona

presupuesto

Dónde ejercer los derechos ARCO, no, pero eh, siempre puedes solicitar presupuesto a los que le instalaron las cámaras ;P

Gasol

Y para terminar, uno especial para aquellos con casi superpoderes o al menos con vista de lince, mucha letra, pequeñita y a una altura que quizá Pau Gasol (porque yo os aseguro que no  :P)

Autoras: María González (@meryglezm) y Ruth Benito (@ruthbenitoabog)

Suplantación de identidad en Internet – Colaboración en Radio Segovia

suplantacion_identidad

Ruth Benito Martín

El pasado 11 de marzo tuve el placer de colaborar en el programa “Hoy por hoy” de Radio Segovia (Cadena Ser) hablando sobre lo que se conoce como suplantación de identidad en Internet y sobre la conveniencia o no de modificar la Ley del derecho al honor, a la intimidad personal y familiar y a la propia imagen a fin de poder perseguir mejor ciertos delitos que se comenten en la red.

Avanzo que en mi opinión no se trata tanto de cambiar esa concreta norma, sino de dotar de más y mejores medios tanto a los Cuerpos y Fuerzas de Seguridad del Estado como a la Administración de Justicia, y de tener muy claro que sea más o menos grave una conducta ilícita cometida en Internet, es tan ilícita como la llevada a cabo en el mundo offline, y como tal debe procurarse su investigación, su persecución y su corrección.

Si queréis escuchar la entrevista (tranquilos, no dura más que unos 5 minutitos, de verdad de la buena) podéis acceder a ella aquí.

Como anécdota, y por si os lo preguntáis (y si no también), os diré que no lo he subido al blog hasta ahora pensando que, por algún fallo, no era posible escuchar los podcasts de Radio Segovia, ya que en ellos no se ve ningún botón de “play”. Hasta que lo he comentado con cierta persona, que por lo visto tiene más fe que yo, a fuerza ha querido encontrarlo y ha terminado demostrándome que efectivamente ahí está el botón de “play”, aunque no se vea, a la izquierda de la grabación. No se ve, pero existe.

Os dejo ya, que ahora nos vamos a dar un paseo sobre el Manzanares y multiplicar sus peces XD.

4 errores a evitar si quieres Cloud Computing en tu empresa

¿Aún no conocéis a Dave?  Dave es un personaje de John Klossner que todos los responsables de IT deberían tener en mente. Os lo presento aquí. Es, en definitiva, el error humano.

Ahora supongamos que Dave es una empresa que se dispone a implementar un servicio de Cloud Computing. Fijo que, tratándose de Dave, cometería muchos más errores, pero desde el punto de vista legal incurriría en los 4 siguientes, que a toda costa hemos de procurar evitar,

1 – No asesorarse con un abogado desde el inicio.

“Anda qué lista” pensaréis, “como ella es abogada…” Pues sí, como soy abogada sé de lo que hablo y conozco muy bien lo difícil o imposible que resulta reparar situaciones cuando el daño ya está hecho y que, sin embargo, se hubieran podido evitar o afrontar de mejor manera si desde el principio se cuenta con un buen asesoramiento.

Y si ese asesoramiento viene de la mano de un abogado con conocimiento en Derecho TIC muchísimo mejor, pues de lo contrario pueden pasar desapercibidos aspectos de suma importancia (p.e. en materia de seguridad de la información, propiedad intelectual, datos personales, responsabilidad de prestadores de servicios de la sociedad de la información…).

En serio, creednos a los abogados cuando os decimos eso tan manido de “más vale prevenir que curar”. No hay nada torticero en ello, por muy abogados que seamos. Nuestra minuta es más jugosa cuando lo que se espera de nosotros son “cuasimilagros” (no milagros, huye de quien te venda milagros), así que cada vez que hagáis negocios sin el debido asesoramiento jurídico, podéis imaginar a varios abogados detrás con dientes afilados, frotándose las manos. ¿De verdad queréis darnos ese gusto? };)

2 – No contar con todos los stakeholders.

Es más frecuente de lo que pensamos que al incorporar un servicio “cloud” en la empresa estemos afectando a terceras partes interesadas como, por ejemplo, filiales, franquiciados o “partners”, que operan en nuestro mismo país o en otros. A estos stakeholders les pueden resultar aplicables obligaciones, legales o contractuales, distintas que a nosotros pero que, en mayor o menor medida, atañen al servicio cloud en el que estamos interesados.

Pues bien, si no les damos, a ellos ni a nosotros mismos, la opción de estudiar las implicaciones que para ellos puede suponer el modelo Cloud Computing que pretendemos, muy probablemente nos pasarán desapercibidos ciertos impedimentos que más tarde aflorarán pudiendo, incluso, llegar a hacer inoperativo lo que tantos recursos nos ha supuesto.

3 – Pasar de la protección de datos de carácter personal.

En el contrato con nuestro proveedor habrá muchas cosas que podremos negociar, cuestiones que pueden quedar a la voluntad de las partes. Sin embargo otras no. Otras derivan de normas de obligado cumplimiento, como sucede con la protección de datos de carácter personal. Dave ni siquiera repararía en ello, pero esto es, sencillamente, innegociable.

Dos son las cuestiones básicas en que puede afectar nuestra normativa sobre protección de datos personales:

1. Si nuestro proveedor cloud va a tratar datos personales para o al prestarnos el servicio (y por tratar se puede entender cualquier uso, aunque sólo sea almacenarlos), se producirá una utilización de esos datos personales que puede implicar que haya:

a) Una cesión de esos datos (nuestra hacia el proveedor o viceversa) si ambas partes vamos a tratar esos datos para fines independientes que cada uno queremos, y con capacidad de decisión al respecto.

b) O un encargo del tratamiento de esos datos, si nuestro proveedor los va a tratar exclusivamente para poder prestarnos el servicio y siguiendo nuestras instrucciones.

Pues bien, tendremos que cumplir con las obligaciones que, para cada caso, nos impone la normativa vigente (y que han de quedar plasmadas en el contrato) si no queremos quedar expuestos a sanciones por su incumplimiento y la consiguiente crisis reputacional que ello nos pueda suponer.

2. Si los datos personales de los que somos responsables van a viajar fuera del Espacio Económico Europeo (p.e. si nuestro proveedor tiene fuera de dicho territorio los servidores donde almacenará nuestra información), hemos de cumplir con una serie de requisitos formales, que vienen exigidos por la ley, y debemos ofrecer las garantías suficientes de que los derechos de los afectados se van a respetar y sus datos personales van a estar adecuadamente protegidos.

Si quieres conocer con más detalle las implicaciones del Cloud Computing en materia de datos personales, puedes leer un artículo que publiqué hace unos meses en Business Value Exchange al respecto.

4 – No negociar bien el contrato.

Ya sé, ya sé. Es muy fácil decirlo, pero otra cosa es hacerlo. Puede ser. Es cierto que muchos de los proveedores cloud más competitivos del mercado imponen sus condiciones bajo el modelo “son lentejas, si quieres las comes y si no las dejas”. Pero Dave ni siquiera intentaría echarle un poco de guindilla a esas lentejas.

Nosotros sí debemos intentarlo, o al menos procurar que si no nos incluyen el chorizo en el mismo plato de las lentejas, nos lo pongan en plato aparte  (¡con lo rico que está el chorizo, hombre!).

Y en cualquier caso, no olvidemos que a veces el mejor negocio es no hacer negocios con un determinado proveedor si no está dispuesto a aceptar condiciones que para nosotros son o deben ser principales. En el Cloud Computing, como en casi todo en esta vida, hemos de reflexionar, con visión a futuro y previendo el mayor número de escenarios posibles, que probablemente nos compense un servicio algo más costoso pero a nuestro gusto y con mayores garantías.

Recuerda: Pregúntate si Dave lo haría, y si la respuesta es sí, no lo hagas tú.

 

La regla de los pasos ¿hacia atrás?

Derecho TIC Derecho digital Abogado TIC

Hace mucho tiempo que ando con ganas de escribir este post, y más desde que Google anunció que cerraba en España su servicio Google Noticias, pero está claro que el tiempo es un bien de lujo.

¿Conocéis la historia de los cangrejos españoles en el cubo? Ahí va:

Un turista se acerca a un pescador que tiene cangrejos en dos cubos, uno tapado y otro sin tapar y le pregunta qué diferencia hay entre los cangrejos de uno y otro cubo.

– En el tapado –responde el pescador- tengo cangrejos japoneses y americanos y en el destapado, españoles. Los tres tipos son igual de inteligentes, grandes, fuertes e incluso el sabor es indistinguible.

– Y ¿por qué el de los japoneses y americanos lleva tapa y el de los españoles no?

– Los cangrejos japoneses y americanos se ayudan para escapar, hacen una torre uno encima de otro y el que llega arriba tira de todos los demás hasta sacarlos. El cubo de los cangrejos españoles no necesita tapa: en cuanto uno empieza a subir, los demás tiran de él para abajo.

Añado yo a esta historia que siempre habrá algún cangrejo (japonés, americano o español) que trepe sobre los demás y luego no ayude a los otros a salir y, francamente, eso está muy feo y sienta muy mal. Sin embargo, no cabe duda de los enormes beneficios de los modelos colaborativos o simbióticos.

Fijar los límites de lo que debe permitirse o no, en la práctica, no es sencillo. Y en materia de propiedad intelectual no es sólo que los límites sean difusos (lo son como niebla en la noche más tenebrosa del lado oscuro), es que entender bien hoy en día la propiedad intelectual y conjugarla a su vez con el derecho de acceso a la cultura y a la información, es un reto titánico.

No, no es fácil. Pero creo que estamos perdiendo oportunidades para hacerlo y, por tanto, para contribuir a salir del cubo. E incluso que estemos dando pasos hacia atrás.

En los USA tienen una cosa muy bonita que se llama “fair use”, que actúa como excepción al “copyright” permitiendo, en ciertos supuestos, un uso limitado de obras protegidas sin necesidad de tener la autorización de los titulares de los derechos. En otros países existen figuras similares. En Inglaterra, Canadá, Australia y Nueva Zelanda se conoce como “fair dealing”. En España lo más parecido que tenemos es la prueba o regla de los tres pasos, que deriva del art. 9.2 del Convenio de Berna para la Protección de las Obras Literarias y Artísticas (ratificado por España), y del art. 13 del Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio (los ADPIC, firmado por España el 1 de enero de 1995). Dicha regla viene a decir que los límites o excepciones a los derechos de propiedad intelectual deberán permitirse:

– En determinados casos especiales (paso 1).

– Siempre que no se atente a la explotación normal de la obra (paso 2).

– Y no se cause con ello un perjuicio injustificado a los intereses legítimos del autor (paso 3).

Ahora bien, lo que Berna y el Acuerdo sobre los ADPIC vienen a decir a los países firmantes, es que las limitaciones o excepciones que cada uno establezca a los derechos de autor, deben ceñirse a esos tres pasos[1], pero no que cualquier uso de una obra protegida que cumpla con dichos tres pasos se convierta automáticamente en un uso legalmente permitido. Y hay una sutil pero gran diferencia a la hora de introducirlo en nuestra legislación.

Así, nuestra Ley de Propiedad Intelectual, después de enumerar los límites a los derechos de autor, en su art. 40 bis establece que aquéllos no podrán interpretarse de manera tal que permitan su aplicación de forma que causen un perjuicio injustificado a los intereses legítimos del autor o que vayan en detrimento de la explotación normal de las obras a que se refieran. De modo que lo que tenemos, si hacemos una interpretación exclusivamente literal de este art. 40 bis, no es una regla adaptable que fija los criterios con base a los cuales podamos concluir que cierta utilización de una obra protegida puede hacerse sin requerir la autorización del titular de los derechos de propiedad intelectual, sino que estamos ante una pauta para interpretar los límites a los derechos de propiedad intelectual que vienen regulados en la ley como “númerus clausus” (lo son exclusivamente los contemplados en los artículos 31 a 40 de la ley).

Merece especial atención la conocida Sentencia del Tribunal Supremo de 3 de abril de 2012, del caso “Megakini v. Google”, en el que el titular de una web de apuestas demandaba a Google y pedía una indemnización porque “no había autorizado la incorporación de su página electrónica ni la utilización de su contenido por parte de Google para que esta la comunicara indiscriminadamente a terceros” a través del buscador sin que dicha conducta, según el demandante, tuviera encaje en ninguno de los límites o excepciones a los derechos de autor.

No se refiere al servicio Google Noticias, sino al buscador, pero la considero especialmente relevante por la interpretación integradora que hace de la mencionada regla de los tres pasos:

“el art. 40 bis LPI (…) tiene un valor interpretativo no solo y exclusivamente negativo (… ), sino también positivo, en cuanto enuncia los principios que justifican la propia excepcionalidad de los límites o, si se quiere, la necesidad de la licencia del autor como regla general ( “perjuicio injustificado a los intereses legítimos” o “detrimento de la explotación normal de las obras” ). Esto permite que la denominada regla, prueba o test “de los tres pasos” contenida en el art. 40 bis pueda considerarse como manifestación especial en la LPI de la doctrina del ius usus inocui , del principio general del ejercicio de los derechos conforme a las exigencias de la buena ( art. 7.1 CC ), del principio asimismo general de la prohibición del abuso del derecho o del ejercicio antisocial del mismo ( art. 7.2 CC ) y de la configuración constitucional del derecho de propiedad como derecho delimitado”.

Lo que lleva a los magistrados del Supremo a concluir que:

“aun cuando los límites al derecho de autor deban interpretarse restrictivamente, ninguno de los dos artículos en cuestión de la LPI, el 31.1 o el 40 bis, es excluyente de la doctrina del ius usus inocui para permitir el uso inocuo con arreglo a los propios principios de la LPI ni, menos aún, de la consideración de los arts. 7 CC, 11 LOPJ y 247.2 LEC. Antes bien, la pretensión de que se cierre el buscador de Google o de que se condene a esta demandada a pagar una indemnización por una actividad que beneficia al demandante, al facilitar en general el acceso a su página web y el conocimiento de su contenido, debe considerarse prohibida por el apdo. 2 del art. 7 CC , como abuso del derecho de autor o ejercicio antisocial del mismo, por cuanto al amparo de la interpretación restrictiva de los límites al derecho de autor pretende perjudicar a Google sin obtener ningún beneficio propio, como no sea fama, notoriedad o la propia indemnización pedida en la demanda”.

Parece pues que con esta sentencia comienza a propiciarse un sistema flexible, que buena falta hace en este mundo tecnológico tan cambiante, para ayudarnos a definir cuándo un determinado uso de una obra protegida, sin la correspondiente autorización, será lícito y cuándo no, con independencia de que se encuentre o no expresamente recogido como excepción en la ley.

A partir del 1 de enero de 2015 entrará en vigor la mayor parte de la última reforma (o intento de parche) de la Ley de Propiedad Intelectual, cuyo nuevo artículo 31.2 se regula el que se ha dado en llamar “canon AEDE” o “tasa Google”. Dicha disposición, en mi opinión, constituye el ejemplo de lo que debemos huir: intenta regular de un modo exhaustivo un caso muy concreto, lamentablemente utilizando para ello conceptos indeterminados, con una redacción francamente desafortunada y difícil de entender, y sin fijar reglas válidas para otros supuestos.

Además, paradójicamente, hará inaplicable los criterios marcados en la sentencia comentada a los “prestadores de servicios electrónicos de agregación de contenidos” (quienes quiera que por tales se refiera) que ahora, en sustitución, deberán regirse por los nuevos criterios contenidos en ese artículo 32.2, los cuales difícilmente casarán en ocasiones con la interpretación de la sentencia del Tribunal Supremo. Como consecuencia, muchos agregadores de contenidos no necesitarán la autorización de los titulares de los derechos de propiedad intelectual de tales contenidos, pero deberán abonar una compensación.

Esto podría dar lugar a que ciertos agregadores de contenidos que reúnan los requisitos establecidos por nuestro Tribunal Supremo, se vean obligados a pagar la compensación (ya veremos cuál, cómo y por cuánto y si satisface a los titulares de los derechos o no), o negociar si es que finalmente es posible que una negociación evite el pago de la compensación, o se vean abocados al cierre.

Google ha cerrado Google Noticias en España. Hay quien piensa que a Google Noticias no le era aplicable la nueva norma. Yo creo que sí. En primer lugar porque reproducía las fotografías con que los medios ilustran sus noticias y con la reforma la “puesta a disposición del público” (sea lo que sea que esto sea) de esas imágenes siempre requerirá la autorización del titular de los derechos. Y en segundo lugar porque, aunque no tuviera finalidad comercial propia e incluyera un enlace al origen (dos de los tres requisitos para que no le fuera aplicable), no se limitaba a “lo imprescindible para ofrecer resultados de búsqueda a la petición del usuario” (tercer requisito), ya que, a diferencia del buscador, Google Noticias ofrecía una relación de noticias sin necesidad de que el usuario introdujera criterios de búsqueda sobre las mismas.

¿Que Google podía haber hecho cambios en su sistema para evitar que le fuera aplicable el “canon AEDE”? Fijo que sí. ¿Que cierra para echar un pulso a los medios de comunicación españoles? Pues ahí ya no estoy tan segura. Bien pudiera tratarse simplemente de que el cierre del servicio es lo más fácil y sencillo para no correr ningún riesgo y que no pierde nada con ello.

Sin embargo otros habrá a quienes la reforma sí haga mucha pupa. Merecida o no, yo no hago más que darle vueltas a los argumentos de la sentencia del Tribunal Supremo que os he comentado. A eso y a la historia de los cangrejos españoles en el cubo…

[1] Convenio de Berna para la Protección de las Obras Literarias y Artísticas, art. 9.2: “Se reserva a las legislaciones de los países de la Unión la facultad de permitir la reproducción de dichas obras en determinados casos especiales, con tal que esa reproducción no atente a la explotación normal de la obra ni cause un perjuicio injustificado a los intereses legítimos del autor.”
Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio, art. 13: “Los Miembros circunscribirán las limitaciones o excepciones impuestas a los derechos exclusivos a determinados casos especiales que no atenten contra la explotación normal de la obra ni causen un perjuicio injustificado a los intereses legítimos del titular de los derechos.”

Consideraciones en torno al derecho al olvido (Parte II y fin… o no)

[Trabajo publicado en El Observatorio Iberoamericano de Protección de Datos]

olvido

¿Existe un “derecho al olvido” nuevo e independiente de cualquier otro?

Del mismo modo que se viene haciendo con el derecho de cancelación de los datos personales, podríamos hablar de un derecho al olvido desde el prisma del derecho al honor, la intimidad personal y familiar y la propia imagen, o en relación con la propiedad intelectual (concretamente el derecho del autor a retirar su obra del comercio por cambio de sus convicciones morales o intelectuales). En tal caso, eso que se ha dado en llamar derecho al olvido podría llegar a predicarse también de las personas jurídicas.

Uno de los primeros casos en donde podría verse reflejado un “derecho al olvido” puede ser el de Melvin v. Reid. Nos situamos en Estados Unidos en el año 1919 y nuestra protagonista es una prostituta acusada de asesinato. Es finalmente absuelta, rehace su vida, abandona la prostitución, contrae matrimonio, tiene hijos y en esta su “nueva vida” nadie, siquiera de sus círculos cercanos, conoce su pasado. En 1925 se emite la película “El quimono rojo” que relata con detalles su vida de prostituta y el juicio en el que se vio envuelta, identificándola con su verdadero nombre. Pues bien, la Corte de Apelación de California, en sentencia dictada el 28 de febrero de 1931, estimó la demanda interpuesta por esta mujer contra la productora de la película, basándose en el derecho a su privacidad pero, más allá de éste y en una explicación final, en el derecho a buscar y obtener la felicidad que la Constitución de California garantiza y en función del cual, entiende el Tribunal, toda persona que vive una vida de rectitud, con independencia de su pasado, tiene ese derecho a una protección frente a ataques innecesarios o agresiones injustificadas contra su libertad, su propiedad su posición social y su reputación.

En este sentido un “derecho al olvido” se asimilaría más a un derecho a la intimidad en relación con hechos pasados, aun cuando éstos pudieron haber adquirido cierta publicidad o ser noticiables en su momento, con el objetivo de proteger una buena reputación actual contra posibles ataques que ahora ya carecen de necesidad y/o justificación. Se pone, de este modo, en directa conexión el derecho a la intimidad con el derecho al honor, actuando aquél como escudo defensor de éste, y enfrentando ambos, como no puede ser de otro modo, con otros derechos o intereses colocados en el otro plato de la balanza, concretamente la libertad de expresión y el derecho de información.

¿Ante qué casos actuaría el derecho al olvido?: 

Un primer tipo de supuestos sería aquellos casos en los que, siendo, en el origen, cierta la información que se revela respecto a un individuo, éste debe soportar esa intromisión en su intimidad por estar legitimada en virtud del derecho de información  (ya sea éste ejercido a través de los medios de comunicación, ya de boletines oficiales o tablones edictales), pero en los que, debido al transcurso del tiempo, puede decirse que tal legitimación debe caducar a fin de que el individuo no tenga que soportar dicha carga durante el resto de su vida impidiéndole su propio pasado, en mayor o menor medida, vivir en paz un presente enmendado.

A este primer tipo habría que añadir una segunda clase de supuestos: Aquellos en los que, aun siendo incierto lo manifestado respecto a una persona y viendo ésta, así, mancillado su honor, el perjudicado prefiere no actuar contra dicho ataque porque en ese momento éste no ha transcendido lo suficiente como para no poder soportar sus efectos y, sin embargo, un tiempo después, pasados ya los plazos para ejercitar cualquier acción, es recuperada esa falsa información alcanzando, en esta ocasión, mucha mayor repercusión gracias al estado de la tecnología. Hablamos, por ejemplo, de imputaciones o juicios de valor que en su momento fueron publicados en formato papel con escasa difusión y que ahora son digitalizados, pasan a estar disponibles para cualquiera en Internet y comienzan a ser muy difundidos.

A la hora de tomar decisiones, las personas lo hacemos en función de las circunstancias que entonces nos rodean y sopesando las consecuencias que nos cabe esperar con lo que conocemos en ese momento. Hace 30 años a nadie se le podía exigir adivinar, o siquiera imaginar, que una falsa acusación vertida en la revista de un Instituto de un municipio de tres mil habitantes, podría ser recuperada, digitalizada y difundida a los cuatro vientos a través de las redes sociales en la actualidad.

Como vemos, y como queda patente en Melvin v. Reid, no es imprescindible que intervenga Internet para dar lugar a un derecho al olvido. No obstante, es cierto que este tipo de situaciones se han empezado a revelar muchísimo más desde la aparición de la Red y, sobre todo, desde la llegada de los fenómenos conocidos como web 2.0 y web 3.0.

Veamos, pues, si en estas situaciones el afectado puede protegerse del perjuicio que se le ocasiona con base en algún derecho ya existente, o por el contrario es necesario que nazca un verdadero y autónomo “derecho al olvido”.

En el primer tipo de supuestos, no podría operar ahora el derecho a la intimidad ni a la propia imagen, pues, partiendo de que los hechos o información íntimos del pasado de la persona fueron ciertos, en su momento fueron lícitamente sacados a la luz por ser noticiables o publicables en virtud del derecho a la información. Tampoco cabría la defensa por la vía del derecho al honor, puesto que, siendo cierta la información, no hay honor que salvaguardar.

Como decimos, se trata de casos en cuyo inicio u origen, en el conflicto entre, de una parte, el derecho a la intimidad y, de otra, el derecho a la información o la libertad de expresión o algún otro interés legítimo, prevaleció uno cualesquiera de estos últimos, rompiéndose la intimidad del individuo y no pudiendo decirse ya que la información que ha visto la luz sea merecedora de catalogarse como íntima a los efectos de gozar de la protección del derecho a la intimidad.

En el segundo tipo de supuestos, cuando la información contra la que actúa el afectado es falsa y atenta contra su reputación, el derecho que entra en juego es el derecho al honor. Pero, si vulnerado el honor de una persona, ésta no ejercita ninguna acción en su defensa y, como hemos mencionado anteriormente, deja pasar los plazos previstos para ello, se habrá aquietado y deberá asumir las consecuencias de sus propios actos. Tampoco aquí cabría accionar el derecho a la intimidad, puesto que, en primer lugar, es posible que no haya nada en lo dicho sobre esa persona que pudiera catalogarse como de su esfera privada, y, en todo caso puede haber transcurrido también el plazo para ejercitar esta acción (como sucede, por ejemplo, en la legislación española, ya que el plazo es el mismo para uno y otro derecho). Podría considerarse que, ante estas situaciones, debería reabrirse el plazo para ejercitar la acción, pero lo cierto es que las imputaciones o juicios de valores no son nuevos, ni tampoco estamos hablando de casos en los que el afectado no se había enterado, o no pudo enterarse, con anterioridad (en cuyo caso el plazo no habría empezado a correr, pues el afectado no pudo ejercitar la acción anteriormente).

Desde la óptica de la protección de los datos personales, una defensa en cualquiera de estas situaciones, puede resultar deficitaria y no resulta tan apropiada como la que se obtendría con este derecho al olvido que estamos apenas bocetando en este trabajo. Así se ha puesto de manifiesto, por ejemplo, con la propia sentencia del TJUE, ya que entiende que, si bien es posible ejercitarlo frente al gestor de un motor de búsqueda, en muchos casos no será posible hacerlo frente al editor donde se publicó en origen la información, o más correctamente, donde se llevó a cabo el tratamiento de los datos (ya que lo estamos contemplando aquí bajo el prisma de los datos personales). Ello es así por la interpretación que realiza el Tribunal del art. 9 de la Directiva 95/46/CE en relación con los fines periodísticos que legitiman dicho tratamiento. Como casi todas en Derecho, esta argumentación para diferenciar la efectividad de un derecho de cancelación frente a un buscador respecto a la que cabe obtener frente a un medio de información, es cuestionable. Ahora bien, en la medida en que dicho precepto remite, como límite al tratamiento, al derecho a la intimidad, y ya hemos visto que éste, en el inicio del caso en cuestión, puede decaer frente al derecho a la información, la actual normativa europea de protección de datos personales no da solución a los supuestos que venimos planteando cuando la publicación original se produjo en un medio de comunicación, más allá de poder ejercitar el derecho de cancelación frente a los motores de búsqueda en Internet conforme se explica en la antes dicha sentencia del TJUE.

En consecuencia, hay determinadas circunstancias en que, ni acudiendo al derecho a la intimidad, o al derecho al honor, o al de protección de datos personales, podemos dar una solución a quien ahora se ve perjudicado por hechos sucedidos en su vida pasada, que ya habían sido olvidados por la colectividad que en su momento supo de ellos, que ahora son traídos al presente, incluso puede que con mayor virulencia que en su origen, sin que exista una necesidad que así lo justifique, provocando que dicha persona no pueda disfrutar en paz de la vida digna que ahora lleva.

Llamémosle como queramos llamarle, y ya sea “viejo” o “nuevo” derecho, lo importante es que se garantice el desarrollo de la persona acorde a lo que cabe esperar dentro del modo en que ésta dirige su vida en la actualidad, evitando que cualquier pasado, más o menos oscuro, pueda frustrar dicho desarrollo cuando no existe ya necesidad ni justificación alguna para que tenga que continuar soportando tal carga. En el entorno digital, por tanto, el derecho al olvido adquiriría una gran relevancia como medio de protección de la identidad digital o del libre desarrollo de la persona en dicho entorno, pero, sin duda, también transcendiendo de éste.

Ruth Benito Martín

Foto: ClickFlashPhotos / Nicki Varkevisser

Consideraciones en torno al derecho al olvido (Parte I)

[Trabajo publicado en El Observatorio Iberoamericano de Protección de Datos]

olvido

“Yo no hablo de venganzas ni perdones, el olvido es la única venganza y el único perdón”

Jorge Luis Borges.

Resulta indudable que hay una serie de derechos que en el entorno digital quedan más expuestos a posibles vulneraciones, y por lo tanto su desarrollo y aplicación pasan a adquirir, en dicho entorno, mayor relevancia.  Hablamos, cuanto menos, del derecho a la intimidad personal y familiar, del derecho al honor, del derecho a la propia imagen (no olvidemos que de estos tres, aunque estrechamente interrelacionados, cada uno protege aspectos distintos de la persona y a cada uno se aplican criterios jurisprudenciales diferentes), de la libertad de expresión, el derecho de información, los de propiedad intelectual y por supuesto, también, el derecho a la protección de los datos personales. Todos ellos se encuentran íntimamente ligados a la identidad digital de la persona, en la medida en que inciden directamente en la construcción de aquellos de los rasgos que caracterizan a un individuo que quedan puestos de manifiesto en la denominada web 3.0.

La Internet que disfrutamos hoy en día ha sufrido gran cambio respecto a la que conocimos en los años noventa, que era mucho más estática y unidireccional, y en la que el usuario ejercía un papel casi del todo pasivo, sin que su conducta conllevara normalmente una reacción en la red. Actualmente, en cambio, el usuario interactúa constantemente en Internet, se ha convertido en parte activa en la construcción del tejido de esta red de redes y su comportamiento puede llegar a provocar grandes reacciones. Este escenario, regido bajo el principio de neutralidad de la red y teniendo en cuenta que el acceso a Internet llega cada vez a una mayor población (como es deseable) y además por medio de más dispositivos (no digamos ya cuando vivamos el gran apogeo del Internet de las cosas), arroja unas características propias de la denominada web 3.0 que resultan de gran impacto para todos estos derechos. Tales características son: la amplificación (repercusión, alcance, rapidez y facilidad en la transmisión de la información), la accesibilidad a la información, más fácil, cómoda y barata, y la permanencia o perdurabilidad de la misma.

Ninguno de los derechos mencionados es absoluto y todos ellos, en su aplicación, encuentran su límite en otros derechos e intereses legítimos. Y en la ponderación que se haga en el conflicto entre unos y otros, adquieren especial importancia estas características de la Internet de hoy en día.

En este panorama, y desde hace unos años, se habla mucho sobre el derecho al olvido. Sin embargo, dudo que sepamos muy bien lo que es, empezando por si realmente existe o no, en el sentido de que efectivamente estemos hablando de un derecho nuevo y no, como muchos parecen definirlo, de un modo u otro, de lo que hace ya años es el derecho de cancelación de la protección de datos personales.

Tampoco tenemos, por lo tanto, una única definición aceptada del derecho al olvido. Son varias las definiciones que se han dado, sin embargo la mayoría de las que conozco lo ponen en relación exclusivamente con el derecho a la protección de los datos de carácter personal, así, por ejemplo la Comisión Europea lo definió en un principio, en su comunicación “A comprehensive approach on personal data protection in the European Union”, como the right of individuals to have their data no longer processed and deleted when they are no longer needed for legitimate purposes, que viene a ser algo así como el derecho de las personas a que sus datos dejen de ser tratados ​​y sean eliminados cuando ya no sean necesarios para los fines legítimos para los que fueron recabados.

En mi opinión esta definición resulta verdaderamente pobre y triste, pues no creo que deba referirse (o no exclusivamente) a los datos personales. Además puede inducir a error, pues ¿acaso en Europa no gozamos ya de esa protección desde la Directiva 95/46/EC? ¿Y no hace años que vienen introduciéndose en las distintas legislaciones nacionales los concretos derechos de oposición y cancelación de nuestros datos personales?

También hay quien lo describe como el derecho a que los buscadores no localicen tus datos personales en la red. A la vista de la Sentencia del TJUE de 13 de mayo de 2014, dictada en el caso C-131/12 (Google contra la AEPD), y siguiendo bajo el prisma de la protección de datos personales, en todo caso, tendría que definirse como el derecho que tiene un individuo a que los gestores de motores de búsqueda en Internet cesen en el tratamiento que de sus datos personales realicen en el territorio de la Unión Europea al enlazar a y al mostrar determinado contenido relativo a su persona, debido a que, habida cuenta de las circunstancias del caso en particular, dicho tratamiento ha dejado de ser legítimo, con independencia de que el tratamiento en origen continúe siendo lícito, porque, en relación con la finalidad que justificaba el tratamiento y con el tiempo transcurrido, los datos ya no son adecuados y/o pertinentes, y ahora son excesivos.

Ahora bien, como digo, ¿qué diferencia esto del ya conocido derecho de cancelación? En la cuestión planteada al TJUE, bien analizada la sentencia, no nos encontramos, pues, ante ningún nuevo derecho, sino ante el ejercicio del derecho de cancelación aplicado a los motores de búsqueda en Internet y respecto al cual habrá que analizar su procedencia caso por caso. De hecho, en ningún momento el TJUE menciona en su sentencia un “derecho al olvido” si no es porque así lo refiere alguna de las partes implicadas.

Pero entonces, ¿existe un “derecho al olvido” nuevo e independiente de cualquier otro?

Ruth Benito Martín

Foto: Kiran Foster.