EXAMEN DEL INTERÉS LEGÍTIMO COMO BASE DEL TRATAMIENTO DE DATOS

Por conversaciones con clientes y compañeros, detecto que el interés legítimo, como base jurídica del tratamiento de datos, suscita muchos interrogantes y en ocasiones provoca cierto nerviosismo. Es curioso porque, aunque en España lo estuvimos manejando de forma errónea (hasta que nos corrigió el TJUE con su sentencia de 24 de noviembre 2011 sobre el asunto ASNEF y FECEMD), no se trata de ninguna novedad del Reglamento General de Protección de Datos (RGPD). Éste contempla exactamente los mismos fundamentos que legitiman el tratamiento de datos que ya contenía la Directiva 95/46.

No obstante, es cierto que, al exigir el Reglamento que, en los tratamientos basados en el consentimiento de los interesados, éste sea inequívoco y en sentido positivo, se esté acudiendo, o al menos se pretenda, al interés legítimo como base alternativa que legitima aquellos tratamientos para los que no se cuenta con un consentimiento otorgado con tales características y en los que no cabe aplicar ninguna otra base jurídica.

Por este motivo se pone el foco ahora sobre el interés legítimo y la incertidumbre surge porque, al igual que sucede con la Directiva, el RGPD exige no sólo la existencia de un interés legítimo, sino que éste prevalezca sobre los intereses o los derechos y libertades de los interesados. En definitiva, hay que ponderar (¡chan chan!). Y en toda ponderación suele suceder que, antes o después hay que chuparse el dedo y ponerlo al viento. Pero mejor hacerlo lo más tarde posible y contar previamente con elementos lo más objetivos posibles que nos puedan guiar como pesas que se van poniendo en la balanza (aunque, como apunto, al final tengamos que recurrir a lo del dedo a la hora de dar un valor a cada una de esas pesas).

El Reglamento regula el interés legítimo principalmente en su artículo 6.1.f), así como en los Considerandos 47 a 50, que, entre otras cosas, indican algunos de los supuestos en los que puede entenderse que el interés del responsable o de un tercero puede considerarse como legítimo (sin perjuicio de tener que llevar a cabo la necesaria ponderación comentada).

Art. 6.1.f):

El tratamiento es necesario para la satisfacción de intereses legítimos perseguidos por el responsable del tratamiento o por un tercero, siempre que sobre dichos intereses no prevalezcan los intereses o los derechos y libertades fundamentales del interesado que requieran la protección de datos personales, en particular cuando el interesado sea un niño.

Lo dispuesto en la letra f) del párrafo primero no será de aplicación al tratamiento realizado por las autoridades públicas en el ejercicio de sus funciones.

Resulta oportuno transcribir igualmente los dos siguientes párrafos del Considerando 47, que aporta unas pinceladas muy genéricas, que he subrayado, de aspectos a tener en cuenta sobre la ponderación que hay que realizar:

El interés legítimo de un responsable del tratamiento, incluso el de un responsable al que se puedan comunicar datos personales, o de un tercero, puede constituir una base jurídica para el tratamiento, siempre que no prevalezcan los intereses o los derechos y libertades del interesado, teniendo en cuenta las expectativas razonables de los interesados basadas en su relación con el responsable.

(…)

En cualquier caso, la existencia de un interés legítimo requeriría una evaluación meticulosa, inclusive si un interesado puede prever de forma razonable, en el momento y en el contexto de la recogida de datos personales, que pueda producirse el tratamiento con tal fin. En particular, los intereses y los derechos fundamentales del interesado podrían prevalecer sobre los intereses del responsable del tratamiento cuando se proceda al tratamiento de los datos personales en circunstancias en las que el interesado no espere razonablemente que se realice un tratamiento ulterior.

No arroja, por tanto, mucha luz el Reglamento en cuanto al examen que debe llevarse a cabo para determinar cuándo un interés legítimo existente y necesario legitima un tratamiento de datos. Y entiendo que tampoco es función de esta norma llegar a tanto detalle e, incluso, podría ser contraproducente. En este punto, llamo la atención sobre el Anteproyecto de LOPD, donde quizá sí cabría desarrollar un poco más la cuestión[i], así como en un futuro Reglamento de desarrollo de esa nueva LOPD.

Las Administraciones Públicas lo tienen fácil con el interés legítimo respecto a los tratamientos de datos que deban realizar en ejercicio de sus funciones. Sencillamente no pueden basar ninguno de esos tratamientos en dicho supuesto, tal como dispone el propio art. 6 citado, al final del apartado f): …no será de aplicación al tratamiento realizado por las autoridades públicas en el ejercicio de sus funciones. La razón, según se menciona en el Considerando 47 del propio RGPD, es que corresponde al legislador establecer por ley la base jurídica para el tratamiento de datos personales por parte de las autoridades públicas.

Ahora bien, para otros supuestos, y siempre que el responsable lo sea una entidad privada, conviene, llegados aquí, recurrir al GT29, concretamente a su Dictamen 06/2014, de 9 de abril de 2014, sobre el concepto de interés legítimo del responsable del tratamiento de los datos en virtud del artículo 7 de la Directiva 95/46/CE. Sí, es cierto, se refiere al interés legítimo previsto en la Directiva, no en el Reglamento, pero es que, como he apuntado anteriormente, la figura del Reglamento no es nueva, sino que se trata del mismo interés legítimo que se contempla en la Directiva; el mencionado dictamen, por tanto, resulta perfecta y plenamente aplicable.

En dicho dictamen el GT29 nos guía a la hora de realizar el pertinente examen sobre el interés legítimo para concluir si éste puede legitimar un determinado tratamiento de datos o no. Para ello deberemos dar los pasos que se resumen en el siguiente esquema:

EsquemaExamenInteresLegitimoPD

Vayamos por partes.

 

A) ¿SE TRATA DE UN INTERÉS LEGÍTIMO?

No todo interés del responsable o de un tercero tiene por qué ser legítimo y esta característica es requisito indispensable para que dicho interés pueda acabar legitimando un tratamiento de datos.

El GT29 exige que, para que pueda considerarse legítimo un interés, éste sea:

  • Lícito: que sea conforme a la legislación nacional y de la UE, es decir que no se trate de materia prohibida, ni atente contra el orden público, ni sea contraria a los principios generales del Derecho (cuáles son éstos es otro cantar).
  • Suficientemente concreto: Lo que requiere que quede claramente delimitado y definido, para poder ponerlo en contraposición a los intereses y los derechos fundamentales del interesado.
  • Representativo de un interés real y actual, es decir, que no sea especulativo.

No tiene sentido crear una lista cerrada de intereses legítimos, pues estos pueden ser infinitamente dispares y además variar en función del tiempo y de las circunstancias. No obstante, el RGPD, en sus Considerandos 47 a 50, nos marca ya algunos supuestos concretos de interés legítimo:

  • La prevención del fraude (Considerando 47).
  • La mercadotecnia directa (Considerando 47).
  • Garantizar la seguridad de la red y de la información, así como de los servicios proporcionados a través de esos sistemas o redes de información (Considerando 49).
  • Compartir datos personales dentro de un mismo grupo empresarial o entre entidades afiliadas a un mismo organismo central con fines administrativos internos (Considerando 48).
  • La indicación de posibles actos delictivos o amenazas para la seguridad pública, así como la transmisión a la autoridad competente de los datos relacionados con dichos actos delictivos o amenazas para la seguridad pública (Considerando 50).

A éstos habrá que añadir los que, en su caso, recoja finalmente la reforma definitiva de nuestra LOPD. Actualmente en el Anteproyecto se mencionan los dos siguientes:

  • El tratamiento de los datos de las personas físicas que presten servicios en una persona jurídica, siempre se trate de los datos mínimos imprescindibles para su localización profesional y se utilicen para mantener la relación con la persona jurídica en cuestión.
  • El tratamiento de los datos de empresarios individuales cuando se refieran a ellos en dicha condición y no se traten para entablar una relación con los mismos como personas físicas.

Además, en el propio dictamen del GT29 se aportan más supuestos que pueden considerarse como interés legítimo y en su Anexo 2 se describen algunos ejemplos prácticos que pueden ser muy útiles. Entre los primeros se exponen a continuación, por no ser repetitivos, sólo aquellos que difieren de los recogidos en los Considerandos del RGPD:

  • El ejercicio del derecho de libertad de expresión o información, incluidas las situaciones en las que se ejerza dicho derecho en los medios de comunicación y en las artes.
  • La prospección convencional y otras formas de comercialización o publicidad.
  • Los mensajes no comerciales que no hayan sido solicitados, incluidos los pertenecientes a campañas políticas o de recaudación de fondos para organizaciones caritativas.
  • La ejecución de derechos reconocidos en procedimientos judiciales, incluido el cobro de deudas mediante procedimientos extrajudiciales.
  • la prevención del uso indebido de servicios o del blanqueo de dinero.
  • La supervisión de los empleados con fines de seguridad o de gestión. En relación con este concreto tratamiento, el propio GT29 ha emitido recientemente otro dictamen que aborda, entre otras, directamente esta cuestión: Dictamen 2/2017 sobre tratamiento de datos en el trabajo, de fecha 8 de junio de 2017, disponible en inglés en pdf en http://ec.europa.eu/newsroom/document.cfm?doc_id=45631.[ii]
  • Los regímenes internos de denuncia de irregularidades.
  • La seguridad física.
  • El tratamiento con fines históricos, científicos o estadísticos.
  • El tratamiento con fines de investigación (incluida la investigación de mercado).

Insisto, no podemos tratar estos listados con la condición de “númerus clausus”, por lo tanto, aunque “nuestro” interés no figure entre los descritos, no significa que no pueda ser un interés legítimo. Lo será siempre que cumpla los requisitos iniciales: licitud, concreción, real y actual.

Si llegamos a la conclusión de que el interés no es legítimo, se paran las máquinas, no puede basarse el tratamiento de datos en dicho interés y habrá que ver si concurre alguna otra base jurídica que pueda legitimar dicho tratamiento.

No debemos confundir el interés del responsable o de un tercero con la finalidad del tratamiento. Ésta es la que se persigue como medio que permita la satisfacción del interés legítimo, pero pueden ser cosas totalmente distintas. También es importante que el interés legítimo quede lo mejor descrito o definido posible de cara al siguiente paso a dar: valorar si el tratamiento es necesario para poder conseguir el interés legítimo.

InteresLegitimoB) ¿EL TRATAMIENTO DE DATOS ES NECESARIO PARA CONSEGUIR EL INTERÉS LEGÍTIMO?

El GT29 en su dictamen nos exhorta a considerar que un tratamiento no será necesario si existen medios menos invasivos a través de los cuales se logra el mismo fin. Y ello sin que deba tenerse en cuenta si esos otros medios menos invasivos le resultan más o menos apropiados o eficaces para el responsable del tratamiento.

Por ello habrá que valorar la conveniencia de introducir, en la determinación del interés legítimo (paso previo), ciertas características propias del resultado que se pretende obtener, tales como el coste, el tiempo, esfuerzos y recursos a emplearse en la consecución del interés legítimo (“al menor coste posible”, “en un plazo no superior a”, “con una inversión ajustada de recursos o esfuerzos” …)

 

C) PONDERACIÓN ENTRE EL INTERÉS LEGÍTIMO Y LOS INTERESES O DERECHOS Y LIBERTADES DE LOS INTERESADOS.

Teniendo en cuenta que el RGPD marca que la ponderación debe hacerse teniendo en cuenta la expectativa razonable de los interesados en función de su relación con el responsable, así como las orientaciones que el GT29 aporta a lo largo de todo su dictamen, se detalla a continuación una batería de preguntas que el responsable del tratamiento puede plantearse para sopesar los intereses en juego y que convendrá que, junto con el resto de cuestiones, deje plasmado en un informe u otro documento que justifique su decisión:

  1. ¿Coincide el interés legítimo del responsable o de un tercero con un derecho fundamental, un interés público o un interés de la comunidad en general aun cuando éste no se encuentre legalmente estipulado?
  2. ¿Concurren en el tratamiento algún elemento característico de otras bases jurídicas que, aunque no pudiendo legitimar por sí solo el tratamiento, sí aporte refuerzo al interés legítimo? (Por ejemplo, si se obtuvo el consentimiento del interesado, aunque no en el modo que exige el RGPD para que dicho consentimiento pueda actuar como base jurídica).
  3. ¿Existe reconocimiento jurídico, cultural o social de la legitimidad del interés? Es decir, si se puede contar con directrices, políticas, recomendaciones, guías, declaraciones, manifiestos, demandas sociales, etc., que impulsen la consecución del interés legítimo. En realidad, este podría ser un subtipo de la primera cuestión o una forma de demostrar que aquella se da positivamente.
  4. ¿El análisis de riesgo del tratamiento o una evaluación de impacto en protección de datos sobre el mismo, arroja un resultado de riesgo alto para los derechos y libertades fundamentales de los interesados?
  5. ¿El tratamiento afecta negativamente a algún otro derecho fundamental de los interesados?
  6. ¿Se tratan datos de categorías especiales?
  7. ¿Se revelan los datos al público o a un gran número de personas?
  8. ¿Se combinan dichos datos con otros obtenidos por otras vías o de otras fuentes?
  9. ¿Les cabe esperar a los interesados que sus datos puedan ser objeto del tratamiento en cuestión o para la finalidad del mismo?
  10. ¿La/s categoría/s de interesados cuyos datos son objeto del tratamiento en cuestión pertenecen a un segmento más vulnerable de la población (menores, personas con discapacidad, solicitantes de asilo o refugio, víctimas de violencia de género, víctimas de terrorismo, etc.)?
  11. ¿Se deriva del tratamiento algún beneficio para los interesados?
  12. ¿Cuál es el grado de invasión en la privacidad de los interesados (bajo, medio o alto)?
  13. ¿Cuál es la duración del tratamiento (una semana o menos, 1 mes, 3 meses, 6 meses, 1 año, más de 1 año…)?
  14. ¿Cuál es la frecuencia del tratamiento (puntual, esporádica, continua)?
  15. Al margen del nivel de invasión en la privacidad de los interesados y del riesgo que conlleve el tratamiento para éstos, ¿cabe esperar que el tratamiento en sí mismo les ocasione algún perjuicio o consecuencia negativa?
  16. ¿Existe relación directa entre el responsable los interesados?
  17. ¿Mantiene el responsable una posición dominante respecto a los interesados?
  18. ¿Existe algún tipo de contraprestación o compensación a favor de los interesados por el tratamiento de sus datos?

Por supuesto éstos no son más que interrogantes que se proponen aquí con una función meramente orientadora. No se agrupan o clasifican en virtud de a quién beneficie la respuesta, en primer lugar, porque se parte de la idea de que los intereses del responsable y de los interesados no tiene por qué ser contrapuestos, aunque en muchos casos así pueda suceder, pero no como regla. También porque, dada la diversidad de intereses legítimos y de tratamientos de datos que pueden plantearse, no parece resultar apropiado determinar apriorísticamente las respuestas que juegan a favor del interés legítimo y las que lo hacen a favor de los intereses o derechos y libertades de los interesados. Es más, en determinados supuestos es posible tanto que algunas de las cuestiones planteadas resulten irrelevantes como que sea necesario incorporar otras distintas.

 

D) EL EQUILIBRIO PROVISIONAL.

Una vez realizada la ponderación anterior, el responsable puede estar ya en condiciones de determinar si prevalece su interés legítimo sobre los intereses o derechos y libertades de los interesados o no. Si claramente es así, se pueden concluir que el tratamiento de datos está legitimado y podrá llevarse a cabo, obviamente con cumplimiento del resto de exigencias que la normativa vigente impone.

Sin embargo, en caso contrario o si aún se tienen dudas, así como si sencillamente, a pesar de que claramente prevalezca el interés legítimo, se quiere reforzar éste (lo que siempre será una buena práctica), el responsable puede acudir a una serie de garantías adicionales, cuyo cumplimiento o concurrencia pueden acabar  inclinando la balanza a favor de unos intereses u otros, dependiendo de una ulterior evaluación de todas las circunstancias en conjunto.

 

E) GARANTÍAS ADICIONALES.

El GT29 en su dictamen recopila algunas herramientas o procedimientos que pueden ser considerados como garantías adicionales a los efectos aquí comprendidos. Sin embargo, considero que aquellas que pueden traducirse en obligaciones o exigencias legales (ya contenidas en su día en la Directiva o ahora en el Reglamento), no deben computar como tal, puesto que son de obligado cumplimiento independientemente de cualquier otra cuestión y no parece muy apropiado que puedan, por tanto, servir para reforzar ninguna base jurídica del tratamiento de datos.

Hecha esta salvedad, y teniendo en cuenta que tampoco en este caso podemos hablar de listas cerradas, se enumeran a continuación, con carácter igualmente orientativo, algunas posibles garantías adicionales:

  1. Facilitar, directamente a los interesados o, en caso de que ello resulte imposible o altamente costoso, al público en general (por ejemplo, mediante publicación en la propia web, difusión en redes sociales propias, anuncios especializados, etc.), información transparente y más amplia que la exigida legalmente sobre el tratamiento de datos y el interés legítimo.
  2. Enviar periódicamente recordatorios con la información anterior.
  3. Facilitar a los interesados uno o varios mecanismos viables y accesibles para garantizar la posibilidad incondicional de que se excluyan voluntariamente del tratamiento.
  4. Informar a los interesados de otros mecanismos que existan, aunque no los aplique o provea directamente en responsable, a través de los cuales aquellos puedan impedir o limitar, de forma sencilla y gratuita, el tratamiento de sus datos (bloqueadores de cookies, listas Robinson, configuraciones de privacidad, etc.)
  5. Aplicar en el tratamiento técnicas de anonimización o medidas que garanticen que los datos no pueden utilizarse para adoptar medidas o emprender otras acciones en relación con los interesados.
  6. Facilitar a los interesados mecanismos de empoderamiento, para que puedan de forma directa acceder, modificar, eliminar, transferir o reutilizar sus propios datos.

 

F) EQUILIBRIO FINAL.

Llegados a este punto, habrá que determinar finalmente si el interés legítimo del responsable o de un tercero prevalece sobre los intereses o derechos y libertades de los interesados, en cuyo caso podrá llevarse a cabo el tratamiento, o si por el contrario prevalecen éstos últimos y, por lo tanto el tratamiento no puede realizarse o deberá examinarse si concurre en él alguna otra base jurídica que pueda legitimarlo.

Es conveniente partir de la base de que cualquier tratamiento basado en el interés legítimo conlleva un riesgo para el responsable: el de que posteriormente la autoridad de control y/o, en su caso, los tribunales, consideren que el interés legítimo no existe, que el tratamiento de datos en cuestión no es necesario para conseguir dicho interés legítimo, o que deben prevalecer los intereses o derechos y libertades de los interesados frente a aquél. Esto supondría que el tratamiento de datos que se ha estado realizando es ilícito, salvo que pudiera basarse en otro supuesto que lo legitime de los contenidos en el art. 6 RGPD, y podría conllevar la pertinente sanción de hasta 20 millones de euros o hasta el 4% de volumen de negocio total anual global del ejercicio financiero anterior del responsable.

Por ello y porque en toda ponderación no se puede eliminar cierto grado, aunque sea mínimo, de subjetividad, conviene dejar documentado el proceso de determinación de la prevalencia del interés legítimo, donde queden reflejados, entre o tras cosas, los pasos que aquí se han comentado de la forma más objetiva posible, buscando un examen real y concienzudo y no un traje a medida para el tratamiento de datos en cuestión.

Por último, y por muy obviedad que nos pueda parecer, resulta oportuno recordar que, con independencia de que se den los requisitos necesarios para basar un tratamiento en el interés legítimo, hay que cumplir el resto de obligaciones que nos exige la normativa sobre protección de datos. Lo digo por aquellos que, dando por válido su interés legítimo y la prevalencia de éste, pudiendo perfectamente, no informan a los interesados sobre el tratamiento sus datos basado en aquél.

 

Imagen destacada: Designed by bearfotos in http://www.freepik.com

[i] En dicho Anteproyecto parece que sólo se hace referencia al interés legítimo para indicar, en su art. 9, que la ley podrá considerar fundado un determinado tratamiento en la existencia de un interés legítimo del responsable del tratamiento o de un tercero, así como para, tal cual se apunta en el mencionado artículo, considerar que el tratamiento de los datos de contacto de las personas físicas que presten servicios en una persona jurídica, así como de los datos de empresarios individuales podrían basarse en el interés legítimo (art. 12).

[ii] En relación con esta cuestión, recomiendo la lectura del artículo de Miguel Recio Gayo, “Nuevo dictamen del GT29 sobre tratamiento de datos en el trabajo: el interés legítimo”, publicado en Diario La Ley, Nº 8, Sección Ciberderecho, 19 de Julio de 2017, Editorial Wolters Kluwer, y disponible en línea en http://diariolaley.laley.es/home/DT0000251744/20170719/Nuevo-dictamen-del-GT29-sobre-tratamiento-de-datos-en-el-trabajo-el-interes-legi

 

No uses mi imagen

Hace unos días conocíamos una sentencia del Tribunal Supremo que condenaba a un medio de comunicación por haber utilizado la foto del perfil de Facebook de una persona para ilustrar una noticia. La indemnización fijada lo fue de 15.000 €, a pesar de que la persona que aparecía en la fotografía estaba directamente relacionado con la noticia.

En este enlace comento para IDGtv por qué el Supremo entiende que el medio de comunicación no debía haber utilizado esa imagen y explico someramente cómo funciona el derecho a la propia imagen en Internet.

PerfilFB

Imagen de cabecera: Por asier_relampagoestudio en Freepik

Memes y memeces

El PP propone en el Congreso que los ‘memes’ sean delito”, “El Partido Popular quiere que el uso de memes sea delito. Aunque no siempre”, “El Partido Popular quiere los memes sean delito en España”, éstos son algunos de los titulares que se pueden leer hoy en algunos medios de comunicación.

Decididamente se nos va la pinza. A unos o a otros. A unos porque proponer tal cosa, así, literalmente, sería una auténtica barbarie inconstitucional. A otros porque, de no ser lo anterior, parece que se están cargando titulares con pólvora fabricada por la crisis del periodismo y comentarios que reflejan muy bien la moda de lo superficial y lo inmediato que me huelo está enfermando a esta sociedad.

De verdad, cada vez cuesta más encontrar, y mantener uno mismo, la mesura en estos días (acepciones 1 y 4, que ya hay que precisar).

Veamos. El Grupo Parlamentario Popular ha presentado en el Congreso de los Diputados una Proposición no de Ley, la nº 161/000740, que podéis leer íntegra aquí y que, en resumen, viene a solicitar que se debata en la Comisión Constitucional la necesidad de reformar la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.  Y justifica esta proposición, según se lee en la misma, en “la alta litigiosidad existente entre los “derechos fundamentales de la personalidad” del artículo 18 CE, con otros derechos constitucionalmente protegidos como son la libertad de información y la libertad de expresión” y en que “la indefinición, la falta de complitud y flexibilidad de esta norma da cabida a distintas interpretaciones jurisprudenciales sobre un mismo caso, algo que puede poner en peligro el principio de seguridad jurídica”.

Hace escasos días, en unas clases que impartía sobre derecho al honor, intimidad e imagen en Internet, precisamente comentaba a los alumnos el incremento de juicios en los que se encuentran en conflicto alguno de estos derechos:

hipfpieninternet_2016

Como se puede ver en la imagen superior (una de las diapositivas utilizada en las clases), realicé una búsqueda en la base de datos del CENDOJ, y el resultado fue que, entre los años 1980 a 2008, un período de 28 años, aparecen 4.182 sentencias del Tribunal Supremo, Audiencia Nacional, Tribunales Superiores de Justicia y Audiencias Provinciales, que hacen referencia al derecho al honor, a la intimidad y a la propia imagen y, en los siguientes casi 8 años (durante los que se ha producido el auge de las redes sociales y de las aplicaciones móviles de mensajería instantánea), son 4.578 las sentencias de dichos tribunales que se refieren a estos derechos, casi 400 sentencias más en un período de tiempo 3,5 veces menor.

Por lo tanto, no puedo si no compartir ese argumento del aumento de la litigiosidad. Sin embargo, no estoy tan segura de que sirva para justificar una modificación de la ley y menos aún para convertir en delito conductas que, pudiendo ser ilícitas, no conllevan una gravedad o un impacto tales que se vuelvan merecedoras de plasmarse en el Código Penal.

También es verdad que algunos memes pueden infringir algún derecho fundamental de quien aparece en la imagen. Ahora bien, me parece muy acertado, tal cual sucede hoy en día, que cuando el protagonista es un político (o cualquier otra persona con proyección o relevancia pública o social), se otorgue, como regla de partida, más fuerza a la libertad de expresión o al derecho a la información frente a sus derechos al honor, a la intimidad y a la imagen. De hecho, este último prácticamente decae, tal cual se recoge en el art. 8.2 de la Ley Orgánica 1/1982:

En particular, el derecho a la propia imagen no impedirá:

  1. a) Su captación, reproducción o publicación por cualquier medio cuando se trate de personas que ejerzan un cargo público o una profesión de notoriedad o proyección pública y la imagen se capte durante un acto público o en lugares abiertos al público.
  2. b) La utilización de la caricatura de dichas personas, de acuerdo con el uso social.
  3. c) La información gráfica sobre un suceso o acaecimiento público cuando la imagen de una persona determinada aparezca como meramente accesoria.

En las clases que comentaba, tuvimos oportunidad de debatir sobre la necesidad de que se delimiten con mayor precisión los casos que constituyen vulneración del derecho al honor, del derecho a la intimidad o del derecho a la imagen (tres derechos claramente diferenciados, dicho sea de paso, y no uno solo). Algunos alumnos percibían esa inseguridad jurídica a que se refiere el grupo parlamentario popular, ya que actualmente hay que ponderar los derechos en conflicto caso por caso y es un trabajo difícil de realizar, como tuvieron la oportunidad de comprobar con algunos ejemplos. No obstante, por regla general, soy reacia a que, como consecuencia de la tecnología que se emplee, deba legislarse de un modo u otro. Creo, además, que la ley y la jurisprudencia existentes ya nos proporcionan los criterios necesarios para enjuiciar estos supuestos de choque entre derechos fundamentales.

En todo caso, habrá que esperar a ver cómo evoluciona esta proposición no de ley y, si llega el momento, saber cuáles son exactamente las modificaciones que se pretenden introducir. Ahora bien, con independencia de ello soy de la creencia de que vale más destinar fuerza a dos líneas de actuación mucho más ambiciosas que una modificación legislativa:

  • La inclusión en las aulas de asignaturas donde, entre otras cuestiones, se inculque el conocimiento y el respeto a los derechos fundamentales (a todos).
  • La dotación a la administración de justicia de más personal, de especial formación en estos temas cuando interviene un componente TIC (me atrevo a decir que la excepción ahora es el caso en el que no encontramos un elemento tecnológico) y de mejores recursos técnicos y procesales que agilicen los litigios y posibiliten una justicia más rápida y efectiva.

 

Créditos: Imagen cabecera por usuario de Flickr Tina D

¿Qué saben de nosotros, quién y para qué?

– Nos vigilan. Y vigilamos. Y contribuimos a que vigilen a nuestros contactos.

– ¡Venga ya! ¿Quién va a tener interés en vigilarme a mí? Yo no soy “nadie”, ¿a quién le importa mi vida?

– Pues igual te sorprenderías. Quizá tú, tú solo, no eres importante para grandes empresas o para ningún gobierno ni ninguna agencia secreta de espionaje. Pero aun así siempre puede haber quien quiera “fisgar” en tus redes sociales, por cotillear, porque quieran contactar contigo para algo, incluirte en una lista de e-mailing, porque quieran saber si serás un “buen novio para mi hijita querida”, o si eres merecedor de crédito… Pero vale, te concedo que quizá el verbo vigilar no sea muy correcto. Y ni siquiera lo sustituiré por el de observar. Pero nos ven.

– ¡Toma! ¡Pues claro que nos ven! Y con lo que estamos engordando últimamente cada vez será más difícil que no nos vean.

– Muy gracioso Matías. Tómatelo a cachondeo, pero a mí me da yuyu. El otro día acompañé a mi prima Nines a unas charlas de ciberseguridad y hubo una abogada que nos habló de lo que es “surveillance assemblage”. El concepto en inglés tiene sentido, pero ¿cómo te lo traduciría? ¿Conjunto de vigilancia? ¿Montaje de vigilancia? ¿Ensamblaje de vig…?

– Sí, los Tranformers de la Vigilancia, ¡juas!

– ¡Matías!

– Ahí, surcando los cielos…

– ¡MATÍAS!

– Perdón, el ciberespacio.

– *$##%#***!!!!

– Vaaaaale, venga Esteban, va, cuéntame la cosa esa de la “servilleta ensamblá”. En serio, que ya me has picado la curiosidad.

– Mira, para que dejes el “cachondeito”, mejor te muestro el vídeo de la parte de que te hablo:

Créditos: Imagen destacada (puzzle) por Mike Seyfang.

#DebateAbiertoCon Replicante Legal (@replicantelegal)

Replicante Legal: Según los últimos estudios, parece que la inteligencia de las máquinas hoy es equiparable a la de un niño de cuatro años. Ruth cuestiona en un tuit que la inteligencia emocional artificial sea posible y plantea si en ese caso estaríamos creando humanos, qué nos diferenciaría de ellos y si esas máquinas deberían tener derechos.  Allá va mi punto de vista sobre esos y otros temas que han surgido durante el debate.

¿Tienen inteligencia emocional los robots?

Estoy de acuerdo en que hoy no podemos considerar que los robots están dotados de inteligencia emocional. Lo más cercano que tenemos es Pepper.

Sin embargo creo que en pocos años la situación será distinta. El propio informe del MIT dice hemos necesitado 60 años para llegar hasta este nivel pero que en los siguientes 6 años se van a lograr unos avances espectaculares porque las tecnologías relacionadas con la inteligencia artificial están creciendo a un ritmo exponencial.

Uno de los mayores expertos mundiales en estos temas es Nick Bostrom. En esta genial charla de TED, nos expone muy claramente cómo ocurrirá ese desarrollo exponencial y también nos alerta de los peligros de las máquinas súper inteligentes.

Creo que con el tema de las emociones de los robots va a suceder algo parecido. Les costará un tiempo llegar a tener la capacidad emocional de un niño pequeño, pero de ahí a la de un adulto, no pasará mucho. A día de hoy sólo son capaces de reconocer unas cuantas emociones y copiarlas pero hay varias instituciones trabajando en algoritmos emocionales y creo que pronto veremos los resultados de esa labor. De hecho, algunos expertos hablan del 2030 como fecha en la que los robots tendrán una dimensión emocional y psicológica y para esa fecha solo faltan 15 años…

Por cierto ¿qué nivel de inteligencia emocional les vamos a pedir? Lo digo porque hay personas con menos empatía y sentimientos que una escoba, pero ese es otro debate.

Ruth Benito: Pero ¿qué entendemos por inteligencia emocional? 

En la Wikipedia se define inteligencia emocional como el “conjunto de habilidades psicológicas que permiten apreciar y expresar de manera equilibrada nuestras propias emociones, entender las de los demás, y utilizar esta información para guiar nuestra forma de pensar y nuestro comportamiento”.

Partiendo de esta definición, y aunque probablemente queda aún bastante por delante, creo que sí se están produciendo avances en la interpretación de las emociones humanas por los robots sociales así como en la capacidad de réplica o copia de tales emociones.

Sin embargo, como apuntaba en Twitter, queda pendiente la parte correspondiente a las propias emociones, pues el hecho de que los robots puedan imitar reacciones humanas está muy lejos de significar que puedan experimentar los sentimientos que provocan tales reacciones. En este sentido, coincido plenamente con la joven AJung Moon cuando dice que los ingenieros han de cuidar mucho el vocabulario a emplear en la presentación de sus trabajos.

En este punto es donde más escéptica me muestro, fundamentalmente por dos motivos: de un lado, porque requiere que los robots sean capaces de sentir, lo que a día de hoy no se da (supongo que ello implica transformar a lenguaje electrónico o digital los impulsos químicos y biológicos del cuerpo humano y aun así no sé si eso sería sentir del mismo modo que lo hacemos las personas o más bien algo parecido a “leer los sentimientos”), y de otro, porque para que lo anterior sea posible primero tendríamos que entendernos a nosotros mismos, o entender cómo funcionan esos procesos químicos y biológicos. Lo explica muy bien Elena García Armada,  investigadora en el Centro de Automática y Robótica (UPM-CSIC), en “Robots”, libro del que podemos leer al respecto un extracto en el blog del CSIC “Ciencia para llevar”.

No obstante, la ciencia es poderosa descubriéndose a sí misma, de modo que haremos bien el imaginarnos en un escenario donde todo es posible.

RL: Efectivamente. Seguro que sabes que Estados Unidos está trabajando en el proyecto denominado “Brain Iniciative” para comprender cómo el cerebro piensa, aprende y recuerda y la Unión Europea se ha embarcado en una aventura parecida (“Human Brain Project”), con la finalidad de desarrollar tecnologías de computación que simulen el funcionamiento del cerebro así como de crear nuevos tratamientos para las patologías mentales.

brain

Son proyectos con inversiones millonarias y es probable que, cuando terminen, hayamos recopilado una información muy valiosa que nos permita conocer en profundidad la única parte del ser humano que todavía es un misterio para la ciencia.  Creo que va a tener un efecto parecido al que tuvo para la genética el descifrar el genoma humano completo.

Además, las neurociencias han tenido un desarrollo espectacular en los últimos años y la aparición de aparatos de imagen por resonancia magnética, de escáneres electroencefalográficos y de técnicas de estimulación cerebral profunda, nos está permitiendo conocer cómo trabajan las neuronas y otras partes del cerebro con un nivel de detalle nunca visto hasta ahora. Michio Kaku lo explica muy bien en su reciente libro “El futuro de nuestra mente”.

En resumen, creo que en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo utilizando un ordenador. Cuando llegue ese momento también podremos entender mucho mejor la forma en la que cerebro procesa las emociones. Ten en cuenta que un bebé humano tarda muchos años en reconocer y expresar emociones. Este aprendizaje se produce por la interacción con sus padres y otras personas de su entorno. Si le dejáramos en una isla solo (sin otros seres vivos)  desde muy pequeño y durante muchos años, aventuro que su nivel de inteligencia emocional sería muy pobre.

A la inversa, cuando conozcamos mejor cómo maneja el cerebro las emociones, podremos afinar los algoritmos de los robots sociales para que aprendan de forma gradual a detectarlas y expresarlas en las interacciones con las personas. Sería un proceso parecido al de educar a un niño solo que más rápido y escalable.

RB: Pues no tenía ni idea de los dos proyectos que mencionas sobre el cerebro humano, pero últimamente me planteo con más frecuencia si no fue un error elegir letras puras ;P

Te veo demasiado optimista con eso de “en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo”, yo soy algo más escéptica. En todo caso, imaginemos la variedad de implantes o prótesis cerebrales o neuronales que podrían crearse y, en este punto, te propongo, y propongo a los lectores, un ejercicio: Imaginemos una persona cualquiera y vayamos sustituyendo partes de su cuerpo por prótesis (a lo Robocop), ¿en qué momento, o con la sustitución de qué órgano, dejaría, en su caso, de ser esa persona y pasaría a ser una máquina?

Es posible que un bebé humano tarde algún tiempo en identificar y reconocer emociones complejas, pero desde el primer momento expresa emociones (que se lo digan a los padres primerizos cuando cada dos horas les despiertan los berridos de la criaturita durante, al menos, el primer mes de vida), y las expresa porque las siente, no porque esté programado para replicarlas.

Habrá quien diga que el genoma humano ya contiene una cierta programación con la que venimos de serie las personas (genotipo, ¿un sistema operativo?). A ella además luego se van añadiendo otras fuentes de experiencia y aprendizaje en cada caso que ayudan al continuo desarrollo de cada uno de nosotros (aspectos sociales, culturales, familiares etc.). Del mismo modo un robot puede venir con una programación base que posteriormente desarrollaría con tecnología “machine learning”.

Pues bien, tomemos el ejemplo del bebé, que llora desde el primer momento que tiene hambre. Es, por tanto, algo que ha heredado genéticamente, no lo ha aprendido por verlo en otros, pero el llanto se activa como reacción que, de algún modo, se sabe que facilitará el remedio al hambre. En los robots se trataría de algo con lo que ya vendrían programados, pero, mientras en el ser humano lo que activa que el llanto se ponga en marcha es la sensación de hambre, ¿qué sería lo que lo activaría en el robot?

Preguntas si llegaremos a afinar los algoritmos de los robots sociales y, en relación con esto último a lo que apunto, tenemos los algoritmos genéticos y la programación genética, inspirados en la evolución biológica, que quizá pudieran ayudar mucho en ese terreno.

RL: ¿Esos robots serían humanos? ¿Qué nos distinguiría de ellos?

Hace unos días se publicaba un artículo con el siguiente titular “Ya es posible transferir la personalidad y actitud de una persona a un robot ciberconsciente”. En la entrevista nos cuentan que han creado un humanoide (Bina 48), que está inspirado en su versión humana, y que “pasa constantemente de su identidad como robot a la de la humana en la que está basada”.

replicanteOtro ejemplo reciente: ninguna máquina había sido capaz de superar el test de Turing hasta que -en junio del año pasado- un bot llamado Eugene Goostman logró convencer a un tercio del jurado que le examinaba de que era un joven adolescente ucraniano de 13 años de edad.

Creo que cada vez va a ser más difícil distinguir a las máquinas con inteligencia artificial de las personas, sobre todo si interactúas con esas de forma no presencial. Si esto sigue así, vamos a tener que pedir ayuda a Harrison Ford.

¿Qué dice el Código Civil a este respecto? El artículo 30 establece que “la personalidad se adquiere en el momento del nacimiento con vida, una vez producido el entero desprendimiento del seno materno”. En consecuencia un robot por muy sofisticado y humano que fuera, no puede tener personalidad según el texto actual de la norma civil.

En cualquier caso, tengo curiosidad por saber cómo van a reaccionar los jueces cuando empiecen a llegar casos en los que están implicados ciborgs.

RB: Pues sí, porque dudo mucho que asistamos a respuestas por parte de legisladores y jueces como las del cuento “El hombre bicentenario”.

Yo no negaría tan rotundamente la posibilidad de atribuir personalidad a un robot. La RAE define persona como “individuo de la especie humana”, la naturaleza humana como el “conjunto de todos los hombres” y hombre como “ser animado racional, varón o mujer”. Podemos seguir buscando términos, pero me temo que seguiríamos encontrando interpretaciones capaces de amparar la comprensión de los robots sociales como humanos.

Por otra parte, el propio Código Civil nos dice en su art. 3 que las normas se interpretarán, entre otros posibles criterios, atendiendo a “la realidad social del tiempo en que han de ser aplicadas” y en su art. 4 que “procederá la aplicación analógica de las normas cuando éstas no contemplen un supuesto específico, pero regulen otro semejante entre los que se aprecie identidad de razón”.

Si buscamos los significados de nacer (dicho de una cosa) y vida, conceptos contenidos en el citado art. 30 C.c., unido a las definiciones ya dadas de persona y hombre y a estos criterios de interpretación y aplicación de las normas, veremos que no parece tan descabellado encajar la personalidad, a efectos jurídicos, en los robots sociales. En cuanto al obstáculo del “desprendimiento del seno materno”, no creo que pueda ser elemento decisorio, pues ¿acaso no consideraríamos persona al semejante gestado en una especie de tanque sustitutivo de un vientre de mujer?

Sin embargo es evidente que hombres y robots no somos lo mismo, con independencia de que ambos fuéramos merecedores de iguales o distintos derechos. Se hace preciso, pues, averiguar qué es aquello que nos diferencia y esto implica concretar qué es el ser humano y qué es la personalidad o cualidad de persona. Tenemos así que el estudio de la robótica, en mi opinión, tendrá que dar lugar, o está dando lugar ya, a una nueva corriente de filósofos (ingenieros, abogados, científicos, sociólogos…) que tratarán de dar respuesta a todas estas cuestiones que se hace necesario abordar y que, entre otras cosas, pueden hacer surgir nuevas configuraciones legales.

RL: Un pequeño apunte respecto a esto último. Para algunos expertos, la magnitud de los cambios que provocarán estas nuevas tecnologías en nuestro sistema jurídico es tal, que conviene que empecemos a pensar y desarrollar una lex robótica especial.

El principal defensor de esa tesis es el profesor americano Ryan Calo, que considera  que la robótica tiene características especiales que la singularizan  y propone incluso crear un organismo regulador ad-hoc para que tutele todo lo que tiene que ver con este campo  puesto que, en su opinión, es la única manera de dar una respuesta satisfactoria a la problemática que van a generar.

El tema de la inmortalidad

Los nuevos desarrollos técnicos también cuestionan la necesidad de la muerte. En la misma entrevista que mencionábamos antes se dice que “gracias a la tecnología podremos conseguir que la mente viva para siempre. Si es cierto que podemos capturar información suficiente de tu mente y que sea transferida a un robot, entonces, literalmente, habrá cientos de versiones de ti y en algún momento esas versiones podrán abandonar el planeta”.

Es decir, algo muy parecido a lo que se cuenta en la película Transcendence de Johnny Depp. Puede parecer ciencia ficción pero lo están afirmando los defensores de la singularidad tecnológica así como científicos de la talla de Stephen Hawking  o Marvin Minsky.

¿Cómo va a reaccionar el derecho frente a estos desarrollos que cuestionan los pilares sobre los que se basa el concepto de persona?

RB: Entiendo que, del mismo modo que el hecho de que un robot pueda emular emociones o imitar comportamientos, no significa que los sienta realmente, el hecho de “copiar la mente” de una persona y meter esa copia en una máquina o hacerla parte de su sistema operativo, no significa que la consciencia de esa persona se encuentre en la máquina de modo tal que se perciba a sí misma en dicho nuevo entorno. Aquí radica, en mi opinión, en relación con la entrevista comentada, la enorme diferencia con Transcendence.

Pero, en todo caso, se plantean diversos interrogantes desde la perspectiva legal: ¿Tendrá el “replicado” algún derecho sobre las versiones de sí mismo? ¿Y sobre las creaciones que una de esas versiones pueda generar? (derechos de autor, patentes…) Por otra parte, ¿merecerán esas versiones algún tipo de protección o de limitación en cuanto a su uso? Pensemos, por ejemplo, que su adquirente diera un trato humillante u ofensivo (o lo que resultara tal tratándose de un humano) a la versión de una persona. Y en el orden de las responsabilidades, ¿podría atribuírsele alguna a la persona versionada en relación con los ilícitos cometidos por una máquina con capacidad de decidir basada en esa personalidad transferida?

RL: ¿Deben tener derechos los robots?

La abogada Kate Darling plantea abiertamente la conveniencia de otorgar ciertos derechos a los robots sociales, tomando como base la legislación para prevenir el maltrato animal.

Creo que Darling lleva el planteamiento un poco al extremo pero coincido con una de las afirmaciones que se hace al final de su estudio: atribuir derechos a entidades que no son humanas no es una práctica nueva. Ya lo hicimos con las personas jurídicas e incluso ahora le hemos dado una nueva vuelta de tuerca y asumimos que éstas pueden cometer delitos.

La otra cara de la moneda es ¿deben tener obligaciones esos robots inteligentes? La cuestión es relevante a los efectos de la atribución de responsabilidad por sus actuaciones. El tema daría para un largo debate jurídico pero, por ir al grano, creo que vamos a tener que repensar la noción de personalidad para crear una nueva categoría (en un artículo de Replicante me animo a llamarla “personalidad mecánica”).

RB: Darling apunta como posible causa para otorgar derechos o protección a algunos animales, al hecho de que los humanos rechazamos ciertos tratos hacia ciertos animales y en consecuencia, de igual modo, podríamos conceder algunos derechos a los robots sociales, con independencia de sus aptitudes.

Tal justificación respecto a los derechos de los animales, parece que trata de evitar nuestro sufrimiento, desagrado o malestar al saber que el animal sufre o ha sufrido, más que el sufrimiento en sí del animal (sin duda esto explicaría por qué no se aplican por igual a todas las especies animales). Pero ¿podemos hacer extensivo este razonamiento hacia los robots cuando sabemos que (a día de hoy) éstos no sienten?

En todo caso, los motivos señalados por Darling en realidad no generan derechos propios de los robots, ya que, en todos ellos, el bien jurídico objeto de protección no lo es el robot en sí (es como si dijéramos que las propiedades inmuebles tienen derecho a no ser allanadas).

Parece que, directa o indirectamente, en el reconocimiento de derechos juegan un importante papel factores tales como ser sensible, capacidad de sufrir, ser consciente… Y en la imposición de obligaciones pesa en gran medida la capacidad de decisión o control que uno tenga, la intencionalidad y la voluntariedad. 

En cuanto al reconocimiento de una personalidad, efectivamente no es algo nuevo extender dicho concepto a seres o entidades distintos a los hombres. Así, tenemos ciertamente las empresas, personas jurídicas sujetos de obligaciones y de derechos propios (derecho al honor), pero también las personas no humanas animales reconocidas, en Argentina la orangután Sandra y en Brasil la chimpancé Suiza (pdf), que fue finalmente envenenada. En este sentido Nonhuman Rights Project mantiene la lucha por el reconocimiento de derechos en favor de animales.

RL: Lo de atribuir algún tipo de personalidad legal a una cierta categoría de máquinas puede parecer exagerado pero no debemos olvidar que el derecho se adapta a la realidad y a veces incluso la manipula porque considera que así se beneficia un bien superior.

Respecto de lo primero, el derecho romano reconocía la esclavitud porque estaba socialmente aceptada en aquella época. Hoy está abolida en todos los países desarrollados porque nadie concibe que un ser humano pueda ser el propietario de otra persona. Algo parecido podemos decir de la segregación racial o del derecho al voto de las mujeres. Pero es que también existen ocasiones en las que las normas modifican la realidad. Es el caso por ejemplo de la adopción, que “borra” el pasado biológico de un menor y le atribuye una nueva filiación, ex artículo 178 del Código Civil.

No me quiero extender más porque es un tema que trato más en detalle en un artículo que se va a publicar en breve en el monográfico sobre robótica de la nueva revista de privacidad y derecho digital de RDU, que dirige mi querido amigo Pablo García Mexía y a la que os emplazo a suscribiros porque es magnífica.

RB: En relación con esta cuestión, y por dejar a un lado la teoría de la personalidad como elemento generador de derechos y obligaciones, vuelvo al punto de las emociones. Quizá el ser capaces de sentir emociones, incluso emociones muy complejas que nos cuesta verbalizar pero que tenemos aprehendidas e identificadas en algún nivel de nuestra consciencia (o genoma y cerebro), es lo que caracteriza a la inteligencia humana. Nuestro sentido del humor, la ironía, la creatividad, la ilusión, la imaginación… Se me hace muy difícil aceptar que todas estas capacidades puedan desarrollarse en máquinas que sí sepan interpretar, leer y copiar emociones pero que no puedan experimentarlas “en carnes propias”.

Quizá estas emociones y capacidades complejas, o en un nivel tal de complejidad que sólo se da en el ser humano, sean lo que haga necesario que tengamos unas normas de convivencia. Por no extenderme demasiado pondré sólo dos ejemplos: 1) el amor y la regulación del matrimonio y de los derechos y obligaciones entre familiares y 2) la creatividad y los derechos de propiedad intelectual.

derechos

Personalmente, llegado el caso de que los robots sociales pudieran efectivamente sentir y tener consciencia de sí mismos, creo (aún hay mucho por reflexionar) que sería partidaria de que fueran considerados personas no humanas artificiales o personas mecánicas y sujetos de derechos y obligaciones.

RL: Aspectos éticos

Es una de las cuestiones más relevantes de este debate desde mi punto de vista. Hay un proyecto muy interesante que ha financiado la Comisión Europea y que se ha publicado hace unos meses. Se llama Robolaw y el resultado es un informe que analiza las cuestiones éticas y legales que pueden plantear los robots, y ofrece principios y directrices que permitan orientar a los reguladores. El documento es extenso pero es de lo mejor que he leído últimamente.

Este tema de las cuestiones morales está ahora de moda por la problemática que plantean los coches sin conductor. Planteo dos preguntas para ilustrar la cuestión:

En caso de accidente inevitable ¿los algoritmos que controlarán a los futuros coches sin conductor deberían dar prioridad al número de vidas salvadas, a los individuos potencialmente involucrados o valorar quién cumplía las normas de circulación?

En el supuesto de que no haya otra opción ¿debería el coche sacrificar a su ocupante con un giro brusco que lo haga caer por un precipicio para evitar matar a los niños que llenan un autobús escolar?

Es una nueva derivada del debate filosófico que en inglés denominan “trolley paradox”. Obviamente también aparece aquí el debate jurídico relativo a la atribución de responsabilidad. Ambos son apasionantes pero creo que no deberían frenar la introducción de estas nuevas tecnologías. No debemos olvidar que cada mes mueren más de 100.000 personas en el mundo por accidentes de tráfico y que el 90% de dichos accidentes está causado por errores humanos.

RB: Fantástico análisis el de Robolaw, por el vistazo que he podido echarle, que dejo como objetivo para una lectura pormenorizada en cuanto me sea posible.

Desde luego, no creo que a nadie que se acerque un poco a la robótica le pase inadvertida la cantidad de implicaciones éticas que ésta supone. Como muchas de las tecnologías que en los últimos años se están desarrollando, y al igual que ya sucede con las evaluaciones de impacto en materia de protección de datos, hay autores, como David Wright y Michael Friedewald, que alertan de la necesidad de realizar, con carácter previo al desarrollo de nuevos proyectos de ICT, evaluaciones de impacto ético (EIA, en sus siglas en inglés Ethical Impact Assessment), e incluso sugieren ya alguna metodología para ello.

Sin duda, la robótica es una de las tecnologías sobre la que más se ha hablado y escrito desde la perspectiva ética. De hecho, existe el término “roboética” (roboethics), que se atribuye a Gianmarco Veruggio, del que animo a ver esta conferencia, y ya en 2004 se celebró el Primer Simposio Internacional sobre Roboética.

Podríamos hablar sobre todas estas cuestiones durante días y días, pero amigo Replicante, creo que con esto los lectores tienen una buena aproximación a la robótica y a la importancia de un enfoque ético y legal sobre la materia.

Terminaré con un par de reflexiones que planteo a los lectores:

1 – ¿Con qué fin queremos crear robots con inteligencia humana, que puedan tener emociones como los humanos y con capacidad de aprendizaje?

2 – ¿Estamos de acuerdo con la siguiente cita de Sydney J. Harris: “The real danger is not that computers will begin to think like men, but that men will begin to think like computers” (el verdadero peligro no es que las computadoras empiecen a pensar como los hombres, sino que los hombres empiecen a pensar como las computadoras)? ¿Seguro? ;)

 

Autores: Replicante Legal y Ruth Benito Martín.

Imágenes: La imagen destacada es de ankakay, el resto de imagenes han sido diseñadas por Freepik

Post publicado simultáneamente en el blog de Replicante Legal.

“Aprovecho para saludar a mi mamá” – #DebateAbiertoCon María González

Si en tu empresa disponéis de un sistema de videovigilancia, seguro estaréis familiarizados con los carteles que han de colocarse avisando de la existencia de aquél a efectos de la normativa sobre protección de datos personales. Sí, hombre, sí, este cartel:

cartel_AEPD

¿A que sí?

Pero igual no sabéis que no tiene por qué ajustarse exactamente a ese modelo, y que puede, digamos, “customizarse” o “tunearse”. Le he pedido a mi colega y amiga María González, que sabe mucho de esto, que comparta su opinión al respecto.

Hola Ruth. Un placer compartir contigo este nuevo #DebateAbiertoCon que surge (confesemos :P) tras una comida y esas ganas de debatir que nos caracteriza… En la búsqueda de temas se nos cruza un tuit de nuestra compañera Jeimy Poveda (@JeimyPove), en el que se plantea la licitud, o adecuación a la normativa, de “tunear” (o personalizar) los carteles de videovigilancia. Una materia donde sin duda no sólo hablaremos de LOPD, sino también de marketing, comunicación y marca.

Jeimi

En este sentido, también nuestro compañero Javier Sempere (@fjavier_sempere) , en septiembre del pasado año, realizó un experimento en búsqueda de carteles de videovigilancia.

Pero vamos a ello, por poner en contexto, creo que deberíamos comenzar por analizar, al menos a grandes rasgos, qué es lo que establece expresamente la normativa, no crees?

Comencemos por explicar que la imagen es un dato de carácter personal y, por tanto, la captación de imágenes por medio de sistemas de videovigilancia queda sujeta a la normativa sobre protección de datos personales (Directiva 95/46/CE, LOPD y Reglamento de la LOPD). Además, la Agencia Española de Protección de Datos (AEPD) dictó la Instrucción 1/2006 sobre el tratamiento de datos personales con fines de vigilancia a través de sistemas de cámaras o videocámaras.

Es esta Instrucción 1/2006 la que regula concretamente el cartel del que hablamos en este post, como uno de los medios, obligatorio, para informar a los afectados en supuestos de videovigilancia, y en cuanto a su contenido y diseño dispone que “se ajustará a lo previsto en el Anexo” de dicha Instrucción.

El punto 1 del Anexo establece que debe contener:

1.- Una referencia a la “LEY ORGÁNICA 15/1999, DE PROTECCIÓN DE DATOS”.

2.- La finalidad del tratamiento: “ZONA VIDEOVIGILADA”.

3.- Identificación de la empresa responsable a la que el afectado puede dirigirse para consultar sobre el tratamiento de sus datos.

Y el punto 2 del Anexo,  recoge como modelo de cartel informativo el que puede descargarse en la propia página web de la AEPD (primera imagen de este post).

Efectivamente, es por todos conocidos el cartel amarillo de videovigilancia de la AEPD, aunque hemos de señalar que en muchos casos, dicho cartel aparece completamente vacío de información, siendo este aspecto no válido, pues falta entre la información requerida los datos del responsable del tratamiento.

Muchos son los que se preguntan a qué grado de “customización” se puede someter a los carteles de videovigilancia, a través de: la modificación de los colores (para que, por ejemplo, pueda adaptarse a la imagen corporativa de la empresa), la incorporación de elementos tecnológicos como Códigos QR, aspectos relativos al tamaño y disposición de los carteles, y en todos los casos, se dé cumplimiento a los requisitos normativos.

Desde mi punto de vista un cartel de videovigilancia puede “customizarse” o “personalizarse” siempre que se cumplan los requisitos formales establecidos por la normativa, que no son otros que los indicados en el citado Anexo I ya referenciados por Ruth, y por supuesto que los mismos cumplan la finalidad principal por la cual son exigibles, es decir, informar al usuario de que puede estar siendo grabado.

Así pues, debemos distinguir varios aspectos:

  • Customización / Personalización de colores para adaptarlo a imagen corporativa.
  • Incorporación nuevos elementos (códigos QR, ….)
  • Formatos y accesibilidad (audio, vídeo…)
  • Tamaño

Exacto María. Para una tienda de marcos, puede resultar tentador enmarcar su cartel de videovigilancia, y quedaría simpático, pero ¡ojo!, porque si ello hace que el aviso “se camufle” entre todos los marcos exhibidos en la pared, no se estará cumpliendo con el art. 5 LOPD, que exige que la información sea facilitada de modo “expreso, preciso e inequívoco”. Sería lo mismo si una tienda de electrodomésticos, reprodujera el cartel mediante vídeo, en una pantalla de televisión colocada junto al resto de modelos en venta retransmitiendo distintos canales.

En cambio, este último sistema puede ser perfectamente válido para una librería, y en una tienda de productos de señalización, y según tenga éstos distribuidos en el establecimiento, el uso de un marco llamativo puede ayudar a que a nadie le pase desapercibido.

señalizacion

En relación con el formato, y siendo el auditivo totalmente compatible con el resto de formatos, piénsese si no tendría mucho más sentido que el aviso de videovigilancia, para una tienda de productos para ciegos, fuera un mensaje sonoro, o en braille en la puerta de entrada al local. Y aquí voy a dejar el punto porque el tema de los discapacitados y la protección de datos, y otros muchos derechos, da para mucho, baste decir que tenemos una asignatura pendiente y que gracias a la tecnología podemos, y debemos, ir avanzando en este terreno.

En cuanto al tamaño del cartel, éste debe ser suficiente para que pueda ser visto, leído y entendido. Dependerá mucho del lugar donde el cartel se sitúe, siendo en ocasiones muy conveniente colocar varios, en función del área que es videovigilada. Claro que, por poner otro ejemplo, para un gran almacén de productos de pintura, podría ser adecuado pintar el cartel de videovigilancia en toda una pared de 3×4 metros.

En efecto, Ruth, en materia de videovigilancia es esencial tener en cuenta diversos aspectos que nos permitan garantizar que todos los afectados pueden acceder a la información sobre la misma; dimensiones, disposición, formato, colores, e incluso, y como bien apuntabas, que la información esté disponible en otros soportes como puede ser el audio.

Hemos de tener en cuenta además, que aunque en la mayoría de los casos la videovigilancia es realizada con motivos de seguridad, cada vez son más frecuentes la utilización de esta clase de sistemas para otras finalidades adicionales (control laboral, estudios de mercado, ….), que deberán ser expresamente informadas en el correspondiente cartel de videovigilancia y en las cláusulas de privacidad que deben acompañar al mismo, o al menos deben estar a disposición de los afectados, y es que, como bien apunta este artículo “Sonría! Nos vigilan!”.

Para finalizar, además de dar las gracias al karma ;) (que nos ha empujado a que este post no quedara en el trastero digital) queremos “premiar” con un bonus a los lectores que hayan llegado hasta aquí, así que os dejamos a continuación unos cartelitos que nos hemos encontrado por este mundo “lopediano” y que por sí solos no cumplirían con lo que exige la normativa:

atencion las24h

zona2

Y ni quiénes somos, ni de dónde venimos ni a dónde puedes ir a ejercitar tus derechos ARCO (¿pa qué?)

IMG_8252

Y encima pixelado :P

zona

presupuesto

Dónde ejercer los derechos ARCO, no, pero eh, siempre puedes solicitar presupuesto a los que le instalaron las cámaras ;P

Gasol

Y para terminar, uno especial para aquellos con casi superpoderes o al menos con vista de lince, mucha letra, pequeñita y a una altura que quizá Pau Gasol (porque yo os aseguro que no  :P)

Autoras: María González (@meryglezm) y Ruth Benito (@ruthbenitoabog)

Suplantación de identidad en Internet – Colaboración en Radio Segovia

suplantacion_identidad

Ruth Benito Martín

El pasado 11 de marzo tuve el placer de colaborar en el programa “Hoy por hoy” de Radio Segovia (Cadena Ser) hablando sobre lo que se conoce como suplantación de identidad en Internet y sobre la conveniencia o no de modificar la Ley del derecho al honor, a la intimidad personal y familiar y a la propia imagen a fin de poder perseguir mejor ciertos delitos que se comenten en la red.

Avanzo que en mi opinión no se trata tanto de cambiar esa concreta norma, sino de dotar de más y mejores medios tanto a los Cuerpos y Fuerzas de Seguridad del Estado como a la Administración de Justicia, y de tener muy claro que sea más o menos grave una conducta ilícita cometida en Internet, es tan ilícita como la llevada a cabo en el mundo offline, y como tal debe procurarse su investigación, su persecución y su corrección.

Si queréis escuchar la entrevista (tranquilos, no dura más que unos 5 minutitos, de verdad de la buena) podéis acceder a ella aquí.

Como anécdota, y por si os lo preguntáis (y si no también), os diré que no lo he subido al blog hasta ahora pensando que, por algún fallo, no era posible escuchar los podcasts de Radio Segovia, ya que en ellos no se ve ningún botón de “play”. Hasta que lo he comentado con cierta persona, que por lo visto tiene más fe que yo, a fuerza ha querido encontrarlo y ha terminado demostrándome que efectivamente ahí está el botón de “play”, aunque no se vea, a la izquierda de la grabación. No se ve, pero existe.

Os dejo ya, que ahora nos vamos a dar un paseo sobre el Manzanares y multiplicar sus peces XD.