memes honor

Memes y memeces

El PP propone en el Congreso que los ‘memes’ sean delito”, “El Partido Popular quiere que el uso de memes sea delito. Aunque no siempre”, “El Partido Popular quiere los memes sean delito en España”, éstos son algunos de los titulares que se pueden leer hoy en algunos medios de comunicación.

Decididamente se nos va la pinza. A unos o a otros. A unos porque proponer tal cosa, así, literalmente, sería una auténtica barbarie inconstitucional. A otros porque, de no ser lo anterior, parece que se están cargando titulares con pólvora fabricada por la crisis del periodismo y comentarios que reflejan muy bien la moda de lo superficial y lo inmediato que me huelo está enfermando a esta sociedad.

De verdad, cada vez cuesta más encontrar, y mantener uno mismo, la mesura en estos días (acepciones 1 y 4, que ya hay que precisar).

Veamos. El Grupo Parlamentario Popular ha presentado en el Congreso de los Diputados una Proposición no de Ley, la nº 161/000740, que podéis leer íntegra aquí y que, en resumen, viene a solicitar que se debata en la Comisión Constitucional la necesidad de reformar la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.  Y justifica esta proposición, según se lee en la misma, en “la alta litigiosidad existente entre los “derechos fundamentales de la personalidad” del artículo 18 CE, con otros derechos constitucionalmente protegidos como son la libertad de información y la libertad de expresión” y en que “la indefinición, la falta de complitud y flexibilidad de esta norma da cabida a distintas interpretaciones jurisprudenciales sobre un mismo caso, algo que puede poner en peligro el principio de seguridad jurídica”.

Hace escasos días, en unas clases que impartía sobre derecho al honor, intimidad e imagen en Internet, precisamente comentaba a los alumnos el incremento de juicios en los que se encuentran en conflicto alguno de estos derechos:

hipfpieninternet_2016

Como se puede ver en la imagen superior (una de las diapositivas utilizada en las clases), realicé una búsqueda en la base de datos del CENDOJ, y el resultado fue que, entre los años 1980 a 2008, un período de 28 años, aparecen 4.182 sentencias del Tribunal Supremo, Audiencia Nacional, Tribunales Superiores de Justicia y Audiencias Provinciales, que hacen referencia al derecho al honor, a la intimidad y a la propia imagen y, en los siguientes casi 8 años (durante los que se ha producido el auge de las redes sociales y de las aplicaciones móviles de mensajería instantánea), son 4.578 las sentencias de dichos tribunales que se refieren a estos derechos, casi 400 sentencias más en un período de tiempo 3,5 veces menor.

Por lo tanto, no puedo si no compartir ese argumento del aumento de la litigiosidad. Sin embargo, no estoy tan segura de que sirva para justificar una modificación de la ley y menos aún para convertir en delito conductas que, pudiendo ser ilícitas, no conllevan una gravedad o un impacto tales que se vuelvan merecedoras de plasmarse en el Código Penal.

También es verdad que algunos memes pueden infringir algún derecho fundamental de quien aparece en la imagen. Ahora bien, me parece muy acertado, tal cual sucede hoy en día, que cuando el protagonista es un político (o cualquier otra persona con proyección o relevancia pública o social), se otorgue, como regla de partida, más fuerza a la libertad de expresión o al derecho a la información frente a sus derechos al honor, a la intimidad y a la imagen. De hecho, este último prácticamente decae, tal cual se recoge en el art. 8.2 de la Ley Orgánica 1/1982:

En particular, el derecho a la propia imagen no impedirá:

  1. a) Su captación, reproducción o publicación por cualquier medio cuando se trate de personas que ejerzan un cargo público o una profesión de notoriedad o proyección pública y la imagen se capte durante un acto público o en lugares abiertos al público.
  2. b) La utilización de la caricatura de dichas personas, de acuerdo con el uso social.
  3. c) La información gráfica sobre un suceso o acaecimiento público cuando la imagen de una persona determinada aparezca como meramente accesoria.

En las clases que comentaba, tuvimos oportunidad de debatir sobre la necesidad de que se delimiten con mayor precisión los casos que constituyen vulneración del derecho al honor, del derecho a la intimidad o del derecho a la imagen (tres derechos claramente diferenciados, dicho sea de paso, y no uno solo). Algunos alumnos percibían esa inseguridad jurídica a que se refiere el grupo parlamentario popular, ya que actualmente hay que ponderar los derechos en conflicto caso por caso y es un trabajo difícil de realizar, como tuvieron la oportunidad de comprobar con algunos ejemplos. No obstante, por regla general, soy reacia a que, como consecuencia de la tecnología que se emplee, deba legislarse de un modo u otro. Creo, además, que la ley y la jurisprudencia existentes ya nos proporcionan los criterios necesarios para enjuiciar estos supuestos de choque entre derechos fundamentales.

En todo caso, habrá que esperar a ver cómo evoluciona esta proposición no de ley y, si llega el momento, saber cuáles son exactamente las modificaciones que se pretenden introducir. Ahora bien, con independencia de ello soy de la creencia de que vale más destinar fuerza a dos líneas de actuación mucho más ambiciosas que una modificación legislativa:

  • La inclusión en las aulas de asignaturas donde, entre otras cuestiones, se inculque el conocimiento y el respeto a los derechos fundamentales (a todos).
  • La dotación a la administración de justicia de más personal, de especial formación en estos temas cuando interviene un componente TIC (me atrevo a decir que la excepción ahora es el caso en el que no encontramos un elemento tecnológico) y de mejores recursos técnicos y procesales que agilicen los litigios y posibiliten una justicia más rápida y efectiva.

 

Créditos: Imagen cabecera por usuario de Flickr Tina D
a02DSC_7914

¿Qué saben de nosotros, quién y para qué?

– Nos vigilan. Y vigilamos. Y contribuimos a que vigilen a nuestros contactos.

– ¡Venga ya! ¿Quién va a tener interés en vigilarme a mí? Yo no soy “nadie”, ¿a quién le importa mi vida?

– Pues igual te sorprenderías. Quizá tú, tú solo, no eres importante para grandes empresas o para ningún gobierno ni ninguna agencia secreta de espionaje. Pero aun así siempre puede haber quien quiera “fisgar” en tus redes sociales, por cotillear, porque quieran contactar contigo para algo, incluirte en una lista de e-mailing, porque quieran saber si serás un “buen novio para mi hijita querida”, o si eres merecedor de crédito… Pero vale, te concedo que quizá el verbo vigilar no sea muy correcto. Y ni siquiera lo sustituiré por el de observar. Pero nos ven.

– ¡Toma! ¡Pues claro que nos ven! Y con lo que estamos engordando últimamente cada vez será más difícil que no nos vean.

– Muy gracioso Matías. Tómatelo a cachondeo, pero a mí me da yuyu. El otro día acompañé a mi prima Nines a unas charlas de ciberseguridad y hubo una abogada que nos habló de lo que es “surveillance assemblage”. El concepto en inglés tiene sentido, pero ¿cómo te lo traduciría? ¿Conjunto de vigilancia? ¿Montaje de vigilancia? ¿Ensamblaje de vig…?

– Sí, los Tranformers de la Vigilancia, ¡juas!

– ¡Matías!

– Ahí, surcando los cielos…

– ¡MATÍAS!

– Perdón, el ciberespacio.

– *$##%#***!!!!

– Vaaaaale, venga Esteban, va, cuéntame la cosa esa de la “servilleta ensamblá”. En serio, que ya me has picado la curiosidad.

– Mira, para que dejes el “cachondeito”, mejor te muestro el vídeo de la parte de que te hablo:

Créditos: Imagen destacada (puzzle) por Mike Seyfang.
llegan

#DebateAbiertoCon Replicante Legal (@replicantelegal)

Replicante Legal: Según los últimos estudios, parece que la inteligencia de las máquinas hoy es equiparable a la de un niño de cuatro años. Ruth cuestiona en un tuit que la inteligencia emocional artificial sea posible y plantea si en ese caso estaríamos creando humanos, qué nos diferenciaría de ellos y si esas máquinas deberían tener derechos.  Allá va mi punto de vista sobre esos y otros temas que han surgido durante el debate.

¿Tienen inteligencia emocional los robots?

Estoy de acuerdo en que hoy no podemos considerar que los robots están dotados de inteligencia emocional. Lo más cercano que tenemos es Pepper.

Sin embargo creo que en pocos años la situación será distinta. El propio informe del MIT dice hemos necesitado 60 años para llegar hasta este nivel pero que en los siguientes 6 años se van a lograr unos avances espectaculares porque las tecnologías relacionadas con la inteligencia artificial están creciendo a un ritmo exponencial.

Uno de los mayores expertos mundiales en estos temas es Nick Bostrom. En esta genial charla de TED, nos expone muy claramente cómo ocurrirá ese desarrollo exponencial y también nos alerta de los peligros de las máquinas súper inteligentes.

Creo que con el tema de las emociones de los robots va a suceder algo parecido. Les costará un tiempo llegar a tener la capacidad emocional de un niño pequeño, pero de ahí a la de un adulto, no pasará mucho. A día de hoy sólo son capaces de reconocer unas cuantas emociones y copiarlas pero hay varias instituciones trabajando en algoritmos emocionales y creo que pronto veremos los resultados de esa labor. De hecho, algunos expertos hablan del 2030 como fecha en la que los robots tendrán una dimensión emocional y psicológica y para esa fecha solo faltan 15 años…

Por cierto ¿qué nivel de inteligencia emocional les vamos a pedir? Lo digo porque hay personas con menos empatía y sentimientos que una escoba, pero ese es otro debate.

Ruth Benito: Pero ¿qué entendemos por inteligencia emocional? 

En la Wikipedia se define inteligencia emocional como el “conjunto de habilidades psicológicas que permiten apreciar y expresar de manera equilibrada nuestras propias emociones, entender las de los demás, y utilizar esta información para guiar nuestra forma de pensar y nuestro comportamiento”.

Partiendo de esta definición, y aunque probablemente queda aún bastante por delante, creo que sí se están produciendo avances en la interpretación de las emociones humanas por los robots sociales así como en la capacidad de réplica o copia de tales emociones.

Sin embargo, como apuntaba en Twitter, queda pendiente la parte correspondiente a las propias emociones, pues el hecho de que los robots puedan imitar reacciones humanas está muy lejos de significar que puedan experimentar los sentimientos que provocan tales reacciones. En este sentido, coincido plenamente con la joven AJung Moon cuando dice que los ingenieros han de cuidar mucho el vocabulario a emplear en la presentación de sus trabajos.

En este punto es donde más escéptica me muestro, fundamentalmente por dos motivos: de un lado, porque requiere que los robots sean capaces de sentir, lo que a día de hoy no se da (supongo que ello implica transformar a lenguaje electrónico o digital los impulsos químicos y biológicos del cuerpo humano y aun así no sé si eso sería sentir del mismo modo que lo hacemos las personas o más bien algo parecido a “leer los sentimientos”), y de otro, porque para que lo anterior sea posible primero tendríamos que entendernos a nosotros mismos, o entender cómo funcionan esos procesos químicos y biológicos. Lo explica muy bien Elena García Armada,  investigadora en el Centro de Automática y Robótica (UPM-CSIC), en “Robots”, libro del que podemos leer al respecto un extracto en el blog del CSIC “Ciencia para llevar”.

No obstante, la ciencia es poderosa descubriéndose a sí misma, de modo que haremos bien el imaginarnos en un escenario donde todo es posible.

RL: Efectivamente. Seguro que sabes que Estados Unidos está trabajando en el proyecto denominado “Brain Iniciative” para comprender cómo el cerebro piensa, aprende y recuerda y la Unión Europea se ha embarcado en una aventura parecida (“Human Brain Project”), con la finalidad de desarrollar tecnologías de computación que simulen el funcionamiento del cerebro así como de crear nuevos tratamientos para las patologías mentales.

brain

Son proyectos con inversiones millonarias y es probable que, cuando terminen, hayamos recopilado una información muy valiosa que nos permita conocer en profundidad la única parte del ser humano que todavía es un misterio para la ciencia.  Creo que va a tener un efecto parecido al que tuvo para la genética el descifrar el genoma humano completo.

Además, las neurociencias han tenido un desarrollo espectacular en los últimos años y la aparición de aparatos de imagen por resonancia magnética, de escáneres electroencefalográficos y de técnicas de estimulación cerebral profunda, nos está permitiendo conocer cómo trabajan las neuronas y otras partes del cerebro con un nivel de detalle nunca visto hasta ahora. Michio Kaku lo explica muy bien en su reciente libro “El futuro de nuestra mente”.

En resumen, creo que en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo utilizando un ordenador. Cuando llegue ese momento también podremos entender mucho mejor la forma en la que cerebro procesa las emociones. Ten en cuenta que un bebé humano tarda muchos años en reconocer y expresar emociones. Este aprendizaje se produce por la interacción con sus padres y otras personas de su entorno. Si le dejáramos en una isla solo (sin otros seres vivos)  desde muy pequeño y durante muchos años, aventuro que su nivel de inteligencia emocional sería muy pobre.

A la inversa, cuando conozcamos mejor cómo maneja el cerebro las emociones, podremos afinar los algoritmos de los robots sociales para que aprendan de forma gradual a detectarlas y expresarlas en las interacciones con las personas. Sería un proceso parecido al de educar a un niño solo que más rápido y escalable.

RB: Pues no tenía ni idea de los dos proyectos que mencionas sobre el cerebro humano, pero últimamente me planteo con más frecuencia si no fue un error elegir letras puras ;P

Te veo demasiado optimista con eso de “en pocos años seremos capaces de entender el funcionamiento de la mente y replicarlo”, yo soy algo más escéptica. En todo caso, imaginemos la variedad de implantes o prótesis cerebrales o neuronales que podrían crearse y, en este punto, te propongo, y propongo a los lectores, un ejercicio: Imaginemos una persona cualquiera y vayamos sustituyendo partes de su cuerpo por prótesis (a lo Robocop), ¿en qué momento, o con la sustitución de qué órgano, dejaría, en su caso, de ser esa persona y pasaría a ser una máquina?

Es posible que un bebé humano tarde algún tiempo en identificar y reconocer emociones complejas, pero desde el primer momento expresa emociones (que se lo digan a los padres primerizos cuando cada dos horas les despiertan los berridos de la criaturita durante, al menos, el primer mes de vida), y las expresa porque las siente, no porque esté programado para replicarlas.

Habrá quien diga que el genoma humano ya contiene una cierta programación con la que venimos de serie las personas (genotipo, ¿un sistema operativo?). A ella además luego se van añadiendo otras fuentes de experiencia y aprendizaje en cada caso que ayudan al continuo desarrollo de cada uno de nosotros (aspectos sociales, culturales, familiares etc.). Del mismo modo un robot puede venir con una programación base que posteriormente desarrollaría con tecnología “machine learning”.

Pues bien, tomemos el ejemplo del bebé, que llora desde el primer momento que tiene hambre. Es, por tanto, algo que ha heredado genéticamente, no lo ha aprendido por verlo en otros, pero el llanto se activa como reacción que, de algún modo, se sabe que facilitará el remedio al hambre. En los robots se trataría de algo con lo que ya vendrían programados, pero, mientras en el ser humano lo que activa que el llanto se ponga en marcha es la sensación de hambre, ¿qué sería lo que lo activaría en el robot?

Preguntas si llegaremos a afinar los algoritmos de los robots sociales y, en relación con esto último a lo que apunto, tenemos los algoritmos genéticos y la programación genética, inspirados en la evolución biológica, que quizá pudieran ayudar mucho en ese terreno.

RL: ¿Esos robots serían humanos? ¿Qué nos distinguiría de ellos?

Hace unos días se publicaba un artículo con el siguiente titular “Ya es posible transferir la personalidad y actitud de una persona a un robot ciberconsciente”. En la entrevista nos cuentan que han creado un humanoide (Bina 48), que está inspirado en su versión humana, y que “pasa constantemente de su identidad como robot a la de la humana en la que está basada”.

replicanteOtro ejemplo reciente: ninguna máquina había sido capaz de superar el test de Turing hasta que -en junio del año pasado- un bot llamado Eugene Goostman logró convencer a un tercio del jurado que le examinaba de que era un joven adolescente ucraniano de 13 años de edad.

Creo que cada vez va a ser más difícil distinguir a las máquinas con inteligencia artificial de las personas, sobre todo si interactúas con esas de forma no presencial. Si esto sigue así, vamos a tener que pedir ayuda a Harrison Ford.

¿Qué dice el Código Civil a este respecto? El artículo 30 establece que “la personalidad se adquiere en el momento del nacimiento con vida, una vez producido el entero desprendimiento del seno materno”. En consecuencia un robot por muy sofisticado y humano que fuera, no puede tener personalidad según el texto actual de la norma civil.

En cualquier caso, tengo curiosidad por saber cómo van a reaccionar los jueces cuando empiecen a llegar casos en los que están implicados ciborgs.

RB: Pues sí, porque dudo mucho que asistamos a respuestas por parte de legisladores y jueces como las del cuento “El hombre bicentenario”.

Yo no negaría tan rotundamente la posibilidad de atribuir personalidad a un robot. La RAE define persona como “individuo de la especie humana”, la naturaleza humana como el “conjunto de todos los hombres” y hombre como “ser animado racional, varón o mujer”. Podemos seguir buscando términos, pero me temo que seguiríamos encontrando interpretaciones capaces de amparar la comprensión de los robots sociales como humanos.

Por otra parte, el propio Código Civil nos dice en su art. 3 que las normas se interpretarán, entre otros posibles criterios, atendiendo a “la realidad social del tiempo en que han de ser aplicadas” y en su art. 4 que “procederá la aplicación analógica de las normas cuando éstas no contemplen un supuesto específico, pero regulen otro semejante entre los que se aprecie identidad de razón”.

Si buscamos los significados de nacer (dicho de una cosa) y vida, conceptos contenidos en el citado art. 30 C.c., unido a las definiciones ya dadas de persona y hombre y a estos criterios de interpretación y aplicación de las normas, veremos que no parece tan descabellado encajar la personalidad, a efectos jurídicos, en los robots sociales. En cuanto al obstáculo del “desprendimiento del seno materno”, no creo que pueda ser elemento decisorio, pues ¿acaso no consideraríamos persona al semejante gestado en una especie de tanque sustitutivo de un vientre de mujer?

Sin embargo es evidente que hombres y robots no somos lo mismo, con independencia de que ambos fuéramos merecedores de iguales o distintos derechos. Se hace preciso, pues, averiguar qué es aquello que nos diferencia y esto implica concretar qué es el ser humano y qué es la personalidad o cualidad de persona. Tenemos así que el estudio de la robótica, en mi opinión, tendrá que dar lugar, o está dando lugar ya, a una nueva corriente de filósofos (ingenieros, abogados, científicos, sociólogos…) que tratarán de dar respuesta a todas estas cuestiones que se hace necesario abordar y que, entre otras cosas, pueden hacer surgir nuevas configuraciones legales.

RL: Un pequeño apunte respecto a esto último. Para algunos expertos, la magnitud de los cambios que provocarán estas nuevas tecnologías en nuestro sistema jurídico es tal, que conviene que empecemos a pensar y desarrollar una lex robótica especial.

El principal defensor de esa tesis es el profesor americano Ryan Calo, que considera  que la robótica tiene características especiales que la singularizan  y propone incluso crear un organismo regulador ad-hoc para que tutele todo lo que tiene que ver con este campo  puesto que, en su opinión, es la única manera de dar una respuesta satisfactoria a la problemática que van a generar.

El tema de la inmortalidad

Los nuevos desarrollos técnicos también cuestionan la necesidad de la muerte. En la misma entrevista que mencionábamos antes se dice que “gracias a la tecnología podremos conseguir que la mente viva para siempre. Si es cierto que podemos capturar información suficiente de tu mente y que sea transferida a un robot, entonces, literalmente, habrá cientos de versiones de ti y en algún momento esas versiones podrán abandonar el planeta”.

Es decir, algo muy parecido a lo que se cuenta en la película Transcendence de Johnny Depp. Puede parecer ciencia ficción pero lo están afirmando los defensores de la singularidad tecnológica así como científicos de la talla de Stephen Hawking  o Marvin Minsky.

¿Cómo va a reaccionar el derecho frente a estos desarrollos que cuestionan los pilares sobre los que se basa el concepto de persona?

RB: Entiendo que, del mismo modo que el hecho de que un robot pueda emular emociones o imitar comportamientos, no significa que los sienta realmente, el hecho de “copiar la mente” de una persona y meter esa copia en una máquina o hacerla parte de su sistema operativo, no significa que la consciencia de esa persona se encuentre en la máquina de modo tal que se perciba a sí misma en dicho nuevo entorno. Aquí radica, en mi opinión, en relación con la entrevista comentada, la enorme diferencia con Transcendence.

Pero, en todo caso, se plantean diversos interrogantes desde la perspectiva legal: ¿Tendrá el “replicado” algún derecho sobre las versiones de sí mismo? ¿Y sobre las creaciones que una de esas versiones pueda generar? (derechos de autor, patentes…) Por otra parte, ¿merecerán esas versiones algún tipo de protección o de limitación en cuanto a su uso? Pensemos, por ejemplo, que su adquirente diera un trato humillante u ofensivo (o lo que resultara tal tratándose de un humano) a la versión de una persona. Y en el orden de las responsabilidades, ¿podría atribuírsele alguna a la persona versionada en relación con los ilícitos cometidos por una máquina con capacidad de decidir basada en esa personalidad transferida?

RL: ¿Deben tener derechos los robots?

La abogada Kate Darling plantea abiertamente la conveniencia de otorgar ciertos derechos a los robots sociales, tomando como base la legislación para prevenir el maltrato animal.

Creo que Darling lleva el planteamiento un poco al extremo pero coincido con una de las afirmaciones que se hace al final de su estudio: atribuir derechos a entidades que no son humanas no es una práctica nueva. Ya lo hicimos con las personas jurídicas e incluso ahora le hemos dado una nueva vuelta de tuerca y asumimos que éstas pueden cometer delitos.

La otra cara de la moneda es ¿deben tener obligaciones esos robots inteligentes? La cuestión es relevante a los efectos de la atribución de responsabilidad por sus actuaciones. El tema daría para un largo debate jurídico pero, por ir al grano, creo que vamos a tener que repensar la noción de personalidad para crear una nueva categoría (en un artículo de Replicante me animo a llamarla “personalidad mecánica”).

RB: Darling apunta como posible causa para otorgar derechos o protección a algunos animales, al hecho de que los humanos rechazamos ciertos tratos hacia ciertos animales y en consecuencia, de igual modo, podríamos conceder algunos derechos a los robots sociales, con independencia de sus aptitudes.

Tal justificación respecto a los derechos de los animales, parece que trata de evitar nuestro sufrimiento, desagrado o malestar al saber que el animal sufre o ha sufrido, más que el sufrimiento en sí del animal (sin duda esto explicaría por qué no se aplican por igual a todas las especies animales). Pero ¿podemos hacer extensivo este razonamiento hacia los robots cuando sabemos que (a día de hoy) éstos no sienten?

En todo caso, los motivos señalados por Darling en realidad no generan derechos propios de los robots, ya que, en todos ellos, el bien jurídico objeto de protección no lo es el robot en sí (es como si dijéramos que las propiedades inmuebles tienen derecho a no ser allanadas).

Parece que, directa o indirectamente, en el reconocimiento de derechos juegan un importante papel factores tales como ser sensible, capacidad de sufrir, ser consciente… Y en la imposición de obligaciones pesa en gran medida la capacidad de decisión o control que uno tenga, la intencionalidad y la voluntariedad. 

En cuanto al reconocimiento de una personalidad, efectivamente no es algo nuevo extender dicho concepto a seres o entidades distintos a los hombres. Así, tenemos ciertamente las empresas, personas jurídicas sujetos de obligaciones y de derechos propios (derecho al honor), pero también las personas no humanas animales reconocidas, en Argentina la orangután Sandra y en Brasil la chimpancé Suiza (pdf), que fue finalmente envenenada. En este sentido Nonhuman Rights Project mantiene la lucha por el reconocimiento de derechos en favor de animales.

RL: Lo de atribuir algún tipo de personalidad legal a una cierta categoría de máquinas puede parecer exagerado pero no debemos olvidar que el derecho se adapta a la realidad y a veces incluso la manipula porque considera que así se beneficia un bien superior.

Respecto de lo primero, el derecho romano reconocía la esclavitud porque estaba socialmente aceptada en aquella época. Hoy está abolida en todos los países desarrollados porque nadie concibe que un ser humano pueda ser el propietario de otra persona. Algo parecido podemos decir de la segregación racial o del derecho al voto de las mujeres. Pero es que también existen ocasiones en las que las normas modifican la realidad. Es el caso por ejemplo de la adopción, que “borra” el pasado biológico de un menor y le atribuye una nueva filiación, ex artículo 178 del Código Civil.

No me quiero extender más porque es un tema que trato más en detalle en un artículo que se va a publicar en breve en el monográfico sobre robótica de la nueva revista de privacidad y derecho digital de RDU, que dirige mi querido amigo Pablo García Mexía y a la que os emplazo a suscribiros porque es magnífica.

RB: En relación con esta cuestión, y por dejar a un lado la teoría de la personalidad como elemento generador de derechos y obligaciones, vuelvo al punto de las emociones. Quizá el ser capaces de sentir emociones, incluso emociones muy complejas que nos cuesta verbalizar pero que tenemos aprehendidas e identificadas en algún nivel de nuestra consciencia (o genoma y cerebro), es lo que caracteriza a la inteligencia humana. Nuestro sentido del humor, la ironía, la creatividad, la ilusión, la imaginación… Se me hace muy difícil aceptar que todas estas capacidades puedan desarrollarse en máquinas que sí sepan interpretar, leer y copiar emociones pero que no puedan experimentarlas “en carnes propias”.

Quizá estas emociones y capacidades complejas, o en un nivel tal de complejidad que sólo se da en el ser humano, sean lo que haga necesario que tengamos unas normas de convivencia. Por no extenderme demasiado pondré sólo dos ejemplos: 1) el amor y la regulación del matrimonio y de los derechos y obligaciones entre familiares y 2) la creatividad y los derechos de propiedad intelectual.

derechos

Personalmente, llegado el caso de que los robots sociales pudieran efectivamente sentir y tener consciencia de sí mismos, creo (aún hay mucho por reflexionar) que sería partidaria de que fueran considerados personas no humanas artificiales o personas mecánicas y sujetos de derechos y obligaciones.

RL: Aspectos éticos

Es una de las cuestiones más relevantes de este debate desde mi punto de vista. Hay un proyecto muy interesante que ha financiado la Comisión Europea y que se ha publicado hace unos meses. Se llama Robolaw y el resultado es un informe que analiza las cuestiones éticas y legales que pueden plantear los robots, y ofrece principios y directrices que permitan orientar a los reguladores. El documento es extenso pero es de lo mejor que he leído últimamente.

Este tema de las cuestiones morales está ahora de moda por la problemática que plantean los coches sin conductor. Planteo dos preguntas para ilustrar la cuestión:

En caso de accidente inevitable ¿los algoritmos que controlarán a los futuros coches sin conductor deberían dar prioridad al número de vidas salvadas, a los individuos potencialmente involucrados o valorar quién cumplía las normas de circulación?

En el supuesto de que no haya otra opción ¿debería el coche sacrificar a su ocupante con un giro brusco que lo haga caer por un precipicio para evitar matar a los niños que llenan un autobús escolar?

Es una nueva derivada del debate filosófico que en inglés denominan “trolley paradox”. Obviamente también aparece aquí el debate jurídico relativo a la atribución de responsabilidad. Ambos son apasionantes pero creo que no deberían frenar la introducción de estas nuevas tecnologías. No debemos olvidar que cada mes mueren más de 100.000 personas en el mundo por accidentes de tráfico y que el 90% de dichos accidentes está causado por errores humanos.

RB: Fantástico análisis el de Robolaw, por el vistazo que he podido echarle, que dejo como objetivo para una lectura pormenorizada en cuanto me sea posible.

Desde luego, no creo que a nadie que se acerque un poco a la robótica le pase inadvertida la cantidad de implicaciones éticas que ésta supone. Como muchas de las tecnologías que en los últimos años se están desarrollando, y al igual que ya sucede con las evaluaciones de impacto en materia de protección de datos, hay autores, como David Wright y Michael Friedewald, que alertan de la necesidad de realizar, con carácter previo al desarrollo de nuevos proyectos de ICT, evaluaciones de impacto ético (EIA, en sus siglas en inglés Ethical Impact Assessment), e incluso sugieren ya alguna metodología para ello.

Sin duda, la robótica es una de las tecnologías sobre la que más se ha hablado y escrito desde la perspectiva ética. De hecho, existe el término “roboética” (roboethics), que se atribuye a Gianmarco Veruggio, del que animo a ver esta conferencia, y ya en 2004 se celebró el Primer Simposio Internacional sobre Roboética.

Podríamos hablar sobre todas estas cuestiones durante días y días, pero amigo Replicante, creo que con esto los lectores tienen una buena aproximación a la robótica y a la importancia de un enfoque ético y legal sobre la materia.

Terminaré con un par de reflexiones que planteo a los lectores:

1 – ¿Con qué fin queremos crear robots con inteligencia humana, que puedan tener emociones como los humanos y con capacidad de aprendizaje?

2 – ¿Estamos de acuerdo con la siguiente cita de Sydney J. Harris: “The real danger is not that computers will begin to think like men, but that men will begin to think like computers” (el verdadero peligro no es que las computadoras empiecen a pensar como los hombres, sino que los hombres empiecen a pensar como las computadoras)? ¿Seguro? ;)

 

Autores: Replicante Legal y Ruth Benito Martín.

Imágenes: La imagen destacada es de ankakay, el resto de imagenes han sido diseñadas por Freepik

Post publicado simultáneamente en el blog de Replicante Legal.

aprovecho

“Aprovecho para saludar a mi mamá” – #DebateAbiertoCon María González

Si en tu empresa disponéis de un sistema de videovigilancia, seguro estaréis familiarizados con los carteles que han de colocarse avisando de la existencia de aquél a efectos de la normativa sobre protección de datos personales. Sí, hombre, sí, este cartel:

cartel_AEPD

¿A que sí?

Pero igual no sabéis que no tiene por qué ajustarse exactamente a ese modelo, y que puede, digamos, “customizarse” o “tunearse”. Le he pedido a mi colega y amiga María González, que sabe mucho de esto, que comparta su opinión al respecto.

Hola Ruth. Un placer compartir contigo este nuevo #DebateAbiertoCon que surge (confesemos :P) tras una comida y esas ganas de debatir que nos caracteriza… En la búsqueda de temas se nos cruza un tuit de nuestra compañera Jeimy Poveda (@JeimyPove), en el que se plantea la licitud, o adecuación a la normativa, de “tunear” (o personalizar) los carteles de videovigilancia. Una materia donde sin duda no sólo hablaremos de LOPD, sino también de marketing, comunicación y marca.

Jeimi

En este sentido, también nuestro compañero Javier Sempere (@fjavier_sempere) , en septiembre del pasado año, realizó un experimento en búsqueda de carteles de videovigilancia.

Pero vamos a ello, por poner en contexto, creo que deberíamos comenzar por analizar, al menos a grandes rasgos, qué es lo que establece expresamente la normativa, no crees?

Comencemos por explicar que la imagen es un dato de carácter personal y, por tanto, la captación de imágenes por medio de sistemas de videovigilancia queda sujeta a la normativa sobre protección de datos personales (Directiva 95/46/CE, LOPD y Reglamento de la LOPD). Además, la Agencia Española de Protección de Datos (AEPD) dictó la Instrucción 1/2006 sobre el tratamiento de datos personales con fines de vigilancia a través de sistemas de cámaras o videocámaras.

Es esta Instrucción 1/2006 la que regula concretamente el cartel del que hablamos en este post, como uno de los medios, obligatorio, para informar a los afectados en supuestos de videovigilancia, y en cuanto a su contenido y diseño dispone que “se ajustará a lo previsto en el Anexo” de dicha Instrucción.

El punto 1 del Anexo establece que debe contener:

1.- Una referencia a la “LEY ORGÁNICA 15/1999, DE PROTECCIÓN DE DATOS”.

2.- La finalidad del tratamiento: “ZONA VIDEOVIGILADA”.

3.- Identificación de la empresa responsable a la que el afectado puede dirigirse para consultar sobre el tratamiento de sus datos.

Y el punto 2 del Anexo,  recoge como modelo de cartel informativo el que puede descargarse en la propia página web de la AEPD (primera imagen de este post).

Efectivamente, es por todos conocidos el cartel amarillo de videovigilancia de la AEPD, aunque hemos de señalar que en muchos casos, dicho cartel aparece completamente vacío de información, siendo este aspecto no válido, pues falta entre la información requerida los datos del responsable del tratamiento.

Muchos son los que se preguntan a qué grado de “customización” se puede someter a los carteles de videovigilancia, a través de: la modificación de los colores (para que, por ejemplo, pueda adaptarse a la imagen corporativa de la empresa), la incorporación de elementos tecnológicos como Códigos QR, aspectos relativos al tamaño y disposición de los carteles, y en todos los casos, se dé cumplimiento a los requisitos normativos.

Desde mi punto de vista un cartel de videovigilancia puede “customizarse” o “personalizarse” siempre que se cumplan los requisitos formales establecidos por la normativa, que no son otros que los indicados en el citado Anexo I ya referenciados por Ruth, y por supuesto que los mismos cumplan la finalidad principal por la cual son exigibles, es decir, informar al usuario de que puede estar siendo grabado.

Así pues, debemos distinguir varios aspectos:

  • Customización / Personalización de colores para adaptarlo a imagen corporativa.
  • Incorporación nuevos elementos (códigos QR, ….)
  • Formatos y accesibilidad (audio, vídeo…)
  • Tamaño

Exacto María. Para una tienda de marcos, puede resultar tentador enmarcar su cartel de videovigilancia, y quedaría simpático, pero ¡ojo!, porque si ello hace que el aviso “se camufle” entre todos los marcos exhibidos en la pared, no se estará cumpliendo con el art. 5 LOPD, que exige que la información sea facilitada de modo “expreso, preciso e inequívoco”. Sería lo mismo si una tienda de electrodomésticos, reprodujera el cartel mediante vídeo, en una pantalla de televisión colocada junto al resto de modelos en venta retransmitiendo distintos canales.

En cambio, este último sistema puede ser perfectamente válido para una librería, y en una tienda de productos de señalización, y según tenga éstos distribuidos en el establecimiento, el uso de un marco llamativo puede ayudar a que a nadie le pase desapercibido.

señalizacion

En relación con el formato, y siendo el auditivo totalmente compatible con el resto de formatos, piénsese si no tendría mucho más sentido que el aviso de videovigilancia, para una tienda de productos para ciegos, fuera un mensaje sonoro, o en braille en la puerta de entrada al local. Y aquí voy a dejar el punto porque el tema de los discapacitados y la protección de datos, y otros muchos derechos, da para mucho, baste decir que tenemos una asignatura pendiente y que gracias a la tecnología podemos, y debemos, ir avanzando en este terreno.

En cuanto al tamaño del cartel, éste debe ser suficiente para que pueda ser visto, leído y entendido. Dependerá mucho del lugar donde el cartel se sitúe, siendo en ocasiones muy conveniente colocar varios, en función del área que es videovigilada. Claro que, por poner otro ejemplo, para un gran almacén de productos de pintura, podría ser adecuado pintar el cartel de videovigilancia en toda una pared de 3×4 metros.

En efecto, Ruth, en materia de videovigilancia es esencial tener en cuenta diversos aspectos que nos permitan garantizar que todos los afectados pueden acceder a la información sobre la misma; dimensiones, disposición, formato, colores, e incluso, y como bien apuntabas, que la información esté disponible en otros soportes como puede ser el audio.

Hemos de tener en cuenta además, que aunque en la mayoría de los casos la videovigilancia es realizada con motivos de seguridad, cada vez son más frecuentes la utilización de esta clase de sistemas para otras finalidades adicionales (control laboral, estudios de mercado, ….), que deberán ser expresamente informadas en el correspondiente cartel de videovigilancia y en las cláusulas de privacidad que deben acompañar al mismo, o al menos deben estar a disposición de los afectados, y es que, como bien apunta este artículo “Sonría! Nos vigilan!”.

Para finalizar, además de dar las gracias al karma ;) (que nos ha empujado a que este post no quedara en el trastero digital) queremos “premiar” con un bonus a los lectores que hayan llegado hasta aquí, así que os dejamos a continuación unos cartelitos que nos hemos encontrado por este mundo “lopediano” y que por sí solos no cumplirían con lo que exige la normativa:

atencion las24h

zona2

Y ni quiénes somos, ni de dónde venimos ni a dónde puedes ir a ejercitar tus derechos ARCO (¿pa qué?)

IMG_8252

Y encima pixelado :P

zona

presupuesto

Dónde ejercer los derechos ARCO, no, pero eh, siempre puedes solicitar presupuesto a los que le instalaron las cámaras ;P

Gasol

Y para terminar, uno especial para aquellos con casi superpoderes o al menos con vista de lince, mucha letra, pequeñita y a una altura que quizá Pau Gasol (porque yo os aseguro que no  :P)

Autoras: María González (@meryglezm) y Ruth Benito (@ruthbenitoabog)

Suplantación de identidad en Internet – Colaboración en Radio Segovia

suplantacion_identidad

Ruth Benito Martín

El pasado 11 de marzo tuve el placer de colaborar en el programa “Hoy por hoy” de Radio Segovia (Cadena Ser) hablando sobre lo que se conoce como suplantación de identidad en Internet y sobre la conveniencia o no de modificar la Ley del derecho al honor, a la intimidad personal y familiar y a la propia imagen a fin de poder perseguir mejor ciertos delitos que se comenten en la red.

Avanzo que en mi opinión no se trata tanto de cambiar esa concreta norma, sino de dotar de más y mejores medios tanto a los Cuerpos y Fuerzas de Seguridad del Estado como a la Administración de Justicia, y de tener muy claro que sea más o menos grave una conducta ilícita cometida en Internet, es tan ilícita como la llevada a cabo en el mundo offline, y como tal debe procurarse su investigación, su persecución y su corrección.

Si queréis escuchar la entrevista (tranquilos, no dura más que unos 5 minutitos, de verdad de la buena) podéis acceder a ella aquí.

Como anécdota, y por si os lo preguntáis (y si no también), os diré que no lo he subido al blog hasta ahora pensando que, por algún fallo, no era posible escuchar los podcasts de Radio Segovia, ya que en ellos no se ve ningún botón de “play”. Hasta que lo he comentado con cierta persona, que por lo visto tiene más fe que yo, a fuerza ha querido encontrarlo y ha terminado demostrándome que efectivamente ahí está el botón de “play”, aunque no se vea, a la izquierda de la grabación. No se ve, pero existe.

Os dejo ya, que ahora nos vamos a dar un paseo sobre el Manzanares y multiplicar sus peces XD.

4 errores a evitar si quieres Cloud Computing en tu empresa

¿Aún no conocéis a Dave?  Dave es un personaje de John Klossner que todos los responsables de IT deberían tener en mente. Os lo presento aquí. Es, en definitiva, el error humano.

Ahora supongamos que Dave es una empresa que se dispone a implementar un servicio de Cloud Computing. Fijo que, tratándose de Dave, cometería muchos más errores, pero desde el punto de vista legal incurriría en los 4 siguientes, que a toda costa hemos de procurar evitar,

1 – No asesorarse con un abogado desde el inicio.

“Anda qué lista” pensaréis, “como ella es abogada…” Pues sí, como soy abogada sé de lo que hablo y conozco muy bien lo difícil o imposible que resulta reparar situaciones cuando el daño ya está hecho y que, sin embargo, se hubieran podido evitar o afrontar de mejor manera si desde el principio se cuenta con un buen asesoramiento.

Y si ese asesoramiento viene de la mano de un abogado con conocimiento en Derecho TIC muchísimo mejor, pues de lo contrario pueden pasar desapercibidos aspectos de suma importancia (p.e. en materia de seguridad de la información, propiedad intelectual, datos personales, responsabilidad de prestadores de servicios de la sociedad de la información…).

En serio, creednos a los abogados cuando os decimos eso tan manido de “más vale prevenir que curar”. No hay nada torticero en ello, por muy abogados que seamos. Nuestra minuta es más jugosa cuando lo que se espera de nosotros son “cuasimilagros” (no milagros, huye de quien te venda milagros), así que cada vez que hagáis negocios sin el debido asesoramiento jurídico, podéis imaginar a varios abogados detrás con dientes afilados, frotándose las manos. ¿De verdad queréis darnos ese gusto? };)

2 – No contar con todos los stakeholders.

Es más frecuente de lo que pensamos que al incorporar un servicio “cloud” en la empresa estemos afectando a terceras partes interesadas como, por ejemplo, filiales, franquiciados o “partners”, que operan en nuestro mismo país o en otros. A estos stakeholders les pueden resultar aplicables obligaciones, legales o contractuales, distintas que a nosotros pero que, en mayor o menor medida, atañen al servicio cloud en el que estamos interesados.

Pues bien, si no les damos, a ellos ni a nosotros mismos, la opción de estudiar las implicaciones que para ellos puede suponer el modelo Cloud Computing que pretendemos, muy probablemente nos pasarán desapercibidos ciertos impedimentos que más tarde aflorarán pudiendo, incluso, llegar a hacer inoperativo lo que tantos recursos nos ha supuesto.

3 – Pasar de la protección de datos de carácter personal.

En el contrato con nuestro proveedor habrá muchas cosas que podremos negociar, cuestiones que pueden quedar a la voluntad de las partes. Sin embargo otras no. Otras derivan de normas de obligado cumplimiento, como sucede con la protección de datos de carácter personal. Dave ni siquiera repararía en ello, pero esto es, sencillamente, innegociable.

Dos son las cuestiones básicas en que puede afectar nuestra normativa sobre protección de datos personales:

1. Si nuestro proveedor cloud va a tratar datos personales para o al prestarnos el servicio (y por tratar se puede entender cualquier uso, aunque sólo sea almacenarlos), se producirá una utilización de esos datos personales que puede implicar que haya:

a) Una cesión de esos datos (nuestra hacia el proveedor o viceversa) si ambas partes vamos a tratar esos datos para fines independientes que cada uno queremos, y con capacidad de decisión al respecto.

b) O un encargo del tratamiento de esos datos, si nuestro proveedor los va a tratar exclusivamente para poder prestarnos el servicio y siguiendo nuestras instrucciones.

Pues bien, tendremos que cumplir con las obligaciones que, para cada caso, nos impone la normativa vigente (y que han de quedar plasmadas en el contrato) si no queremos quedar expuestos a sanciones por su incumplimiento y la consiguiente crisis reputacional que ello nos pueda suponer.

2. Si los datos personales de los que somos responsables van a viajar fuera del Espacio Económico Europeo (p.e. si nuestro proveedor tiene fuera de dicho territorio los servidores donde almacenará nuestra información), hemos de cumplir con una serie de requisitos formales, que vienen exigidos por la ley, y debemos ofrecer las garantías suficientes de que los derechos de los afectados se van a respetar y sus datos personales van a estar adecuadamente protegidos.

Si quieres conocer con más detalle las implicaciones del Cloud Computing en materia de datos personales, puedes leer un artículo que publiqué hace unos meses en Business Value Exchange al respecto.

4 – No negociar bien el contrato.

Ya sé, ya sé. Es muy fácil decirlo, pero otra cosa es hacerlo. Puede ser. Es cierto que muchos de los proveedores cloud más competitivos del mercado imponen sus condiciones bajo el modelo “son lentejas, si quieres las comes y si no las dejas”. Pero Dave ni siquiera intentaría echarle un poco de guindilla a esas lentejas.

Nosotros sí debemos intentarlo, o al menos procurar que si no nos incluyen el chorizo en el mismo plato de las lentejas, nos lo pongan en plato aparte  (¡con lo rico que está el chorizo, hombre!).

Y en cualquier caso, no olvidemos que a veces el mejor negocio es no hacer negocios con un determinado proveedor si no está dispuesto a aceptar condiciones que para nosotros son o deben ser principales. En el Cloud Computing, como en casi todo en esta vida, hemos de reflexionar, con visión a futuro y previendo el mayor número de escenarios posibles, que probablemente nos compense un servicio algo más costoso pero a nuestro gusto y con mayores garantías.

Recuerda: Pregúntate si Dave lo haría, y si la respuesta es sí, no lo hagas tú.

 

La regla de los pasos ¿hacia atrás?

Derecho TIC Derecho digital Abogado TIC

Hace mucho tiempo que ando con ganas de escribir este post, y más desde que Google anunció que cerraba en España su servicio Google Noticias, pero está claro que el tiempo es un bien de lujo.

¿Conocéis la historia de los cangrejos españoles en el cubo? Ahí va:

Un turista se acerca a un pescador que tiene cangrejos en dos cubos, uno tapado y otro sin tapar y le pregunta qué diferencia hay entre los cangrejos de uno y otro cubo.

– En el tapado –responde el pescador- tengo cangrejos japoneses y americanos y en el destapado, españoles. Los tres tipos son igual de inteligentes, grandes, fuertes e incluso el sabor es indistinguible.

– Y ¿por qué el de los japoneses y americanos lleva tapa y el de los españoles no?

– Los cangrejos japoneses y americanos se ayudan para escapar, hacen una torre uno encima de otro y el que llega arriba tira de todos los demás hasta sacarlos. El cubo de los cangrejos españoles no necesita tapa: en cuanto uno empieza a subir, los demás tiran de él para abajo.

Añado yo a esta historia que siempre habrá algún cangrejo (japonés, americano o español) que trepe sobre los demás y luego no ayude a los otros a salir y, francamente, eso está muy feo y sienta muy mal. Sin embargo, no cabe duda de los enormes beneficios de los modelos colaborativos o simbióticos.

Fijar los límites de lo que debe permitirse o no, en la práctica, no es sencillo. Y en materia de propiedad intelectual no es sólo que los límites sean difusos (lo son como niebla en la noche más tenebrosa del lado oscuro), es que entender bien hoy en día la propiedad intelectual y conjugarla a su vez con el derecho de acceso a la cultura y a la información, es un reto titánico.

No, no es fácil. Pero creo que estamos perdiendo oportunidades para hacerlo y, por tanto, para contribuir a salir del cubo. E incluso que estemos dando pasos hacia atrás.

En los USA tienen una cosa muy bonita que se llama “fair use”, que actúa como excepción al “copyright” permitiendo, en ciertos supuestos, un uso limitado de obras protegidas sin necesidad de tener la autorización de los titulares de los derechos. En otros países existen figuras similares. En Inglaterra, Canadá, Australia y Nueva Zelanda se conoce como “fair dealing”. En España lo más parecido que tenemos es la prueba o regla de los tres pasos, que deriva del art. 9.2 del Convenio de Berna para la Protección de las Obras Literarias y Artísticas (ratificado por España), y del art. 13 del Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio (los ADPIC, firmado por España el 1 de enero de 1995). Dicha regla viene a decir que los límites o excepciones a los derechos de propiedad intelectual deberán permitirse:

– En determinados casos especiales (paso 1).

– Siempre que no se atente a la explotación normal de la obra (paso 2).

– Y no se cause con ello un perjuicio injustificado a los intereses legítimos del autor (paso 3).

Ahora bien, lo que Berna y el Acuerdo sobre los ADPIC vienen a decir a los países firmantes, es que las limitaciones o excepciones que cada uno establezca a los derechos de autor, deben ceñirse a esos tres pasos[1], pero no que cualquier uso de una obra protegida que cumpla con dichos tres pasos se convierta automáticamente en un uso legalmente permitido. Y hay una sutil pero gran diferencia a la hora de introducirlo en nuestra legislación.

Así, nuestra Ley de Propiedad Intelectual, después de enumerar los límites a los derechos de autor, en su art. 40 bis establece que aquéllos no podrán interpretarse de manera tal que permitan su aplicación de forma que causen un perjuicio injustificado a los intereses legítimos del autor o que vayan en detrimento de la explotación normal de las obras a que se refieran. De modo que lo que tenemos, si hacemos una interpretación exclusivamente literal de este art. 40 bis, no es una regla adaptable que fija los criterios con base a los cuales podamos concluir que cierta utilización de una obra protegida puede hacerse sin requerir la autorización del titular de los derechos de propiedad intelectual, sino que estamos ante una pauta para interpretar los límites a los derechos de propiedad intelectual que vienen regulados en la ley como “númerus clausus” (lo son exclusivamente los contemplados en los artículos 31 a 40 de la ley).

Merece especial atención la conocida Sentencia del Tribunal Supremo de 3 de abril de 2012, del caso “Megakini v. Google”, en el que el titular de una web de apuestas demandaba a Google y pedía una indemnización porque “no había autorizado la incorporación de su página electrónica ni la utilización de su contenido por parte de Google para que esta la comunicara indiscriminadamente a terceros” a través del buscador sin que dicha conducta, según el demandante, tuviera encaje en ninguno de los límites o excepciones a los derechos de autor.

No se refiere al servicio Google Noticias, sino al buscador, pero la considero especialmente relevante por la interpretación integradora que hace de la mencionada regla de los tres pasos:

“el art. 40 bis LPI (…) tiene un valor interpretativo no solo y exclusivamente negativo (… ), sino también positivo, en cuanto enuncia los principios que justifican la propia excepcionalidad de los límites o, si se quiere, la necesidad de la licencia del autor como regla general ( “perjuicio injustificado a los intereses legítimos” o “detrimento de la explotación normal de las obras” ). Esto permite que la denominada regla, prueba o test “de los tres pasos” contenida en el art. 40 bis pueda considerarse como manifestación especial en la LPI de la doctrina del ius usus inocui , del principio general del ejercicio de los derechos conforme a las exigencias de la buena ( art. 7.1 CC ), del principio asimismo general de la prohibición del abuso del derecho o del ejercicio antisocial del mismo ( art. 7.2 CC ) y de la configuración constitucional del derecho de propiedad como derecho delimitado”.

Lo que lleva a los magistrados del Supremo a concluir que:

“aun cuando los límites al derecho de autor deban interpretarse restrictivamente, ninguno de los dos artículos en cuestión de la LPI, el 31.1 o el 40 bis, es excluyente de la doctrina del ius usus inocui para permitir el uso inocuo con arreglo a los propios principios de la LPI ni, menos aún, de la consideración de los arts. 7 CC, 11 LOPJ y 247.2 LEC. Antes bien, la pretensión de que se cierre el buscador de Google o de que se condene a esta demandada a pagar una indemnización por una actividad que beneficia al demandante, al facilitar en general el acceso a su página web y el conocimiento de su contenido, debe considerarse prohibida por el apdo. 2 del art. 7 CC , como abuso del derecho de autor o ejercicio antisocial del mismo, por cuanto al amparo de la interpretación restrictiva de los límites al derecho de autor pretende perjudicar a Google sin obtener ningún beneficio propio, como no sea fama, notoriedad o la propia indemnización pedida en la demanda”.

Parece pues que con esta sentencia comienza a propiciarse un sistema flexible, que buena falta hace en este mundo tecnológico tan cambiante, para ayudarnos a definir cuándo un determinado uso de una obra protegida, sin la correspondiente autorización, será lícito y cuándo no, con independencia de que se encuentre o no expresamente recogido como excepción en la ley.

A partir del 1 de enero de 2015 entrará en vigor la mayor parte de la última reforma (o intento de parche) de la Ley de Propiedad Intelectual, cuyo nuevo artículo 31.2 se regula el que se ha dado en llamar “canon AEDE” o “tasa Google”. Dicha disposición, en mi opinión, constituye el ejemplo de lo que debemos huir: intenta regular de un modo exhaustivo un caso muy concreto, lamentablemente utilizando para ello conceptos indeterminados, con una redacción francamente desafortunada y difícil de entender, y sin fijar reglas válidas para otros supuestos.

Además, paradójicamente, hará inaplicable los criterios marcados en la sentencia comentada a los “prestadores de servicios electrónicos de agregación de contenidos” (quienes quiera que por tales se refiera) que ahora, en sustitución, deberán regirse por los nuevos criterios contenidos en ese artículo 32.2, los cuales difícilmente casarán en ocasiones con la interpretación de la sentencia del Tribunal Supremo. Como consecuencia, muchos agregadores de contenidos no necesitarán la autorización de los titulares de los derechos de propiedad intelectual de tales contenidos, pero deberán abonar una compensación.

Esto podría dar lugar a que ciertos agregadores de contenidos que reúnan los requisitos establecidos por nuestro Tribunal Supremo, se vean obligados a pagar la compensación (ya veremos cuál, cómo y por cuánto y si satisface a los titulares de los derechos o no), o negociar si es que finalmente es posible que una negociación evite el pago de la compensación, o se vean abocados al cierre.

Google ha cerrado Google Noticias en España. Hay quien piensa que a Google Noticias no le era aplicable la nueva norma. Yo creo que sí. En primer lugar porque reproducía las fotografías con que los medios ilustran sus noticias y con la reforma la “puesta a disposición del público” (sea lo que sea que esto sea) de esas imágenes siempre requerirá la autorización del titular de los derechos. Y en segundo lugar porque, aunque no tuviera finalidad comercial propia e incluyera un enlace al origen (dos de los tres requisitos para que no le fuera aplicable), no se limitaba a “lo imprescindible para ofrecer resultados de búsqueda a la petición del usuario” (tercer requisito), ya que, a diferencia del buscador, Google Noticias ofrecía una relación de noticias sin necesidad de que el usuario introdujera criterios de búsqueda sobre las mismas.

¿Que Google podía haber hecho cambios en su sistema para evitar que le fuera aplicable el “canon AEDE”? Fijo que sí. ¿Que cierra para echar un pulso a los medios de comunicación españoles? Pues ahí ya no estoy tan segura. Bien pudiera tratarse simplemente de que el cierre del servicio es lo más fácil y sencillo para no correr ningún riesgo y que no pierde nada con ello.

Sin embargo otros habrá a quienes la reforma sí haga mucha pupa. Merecida o no, yo no hago más que darle vueltas a los argumentos de la sentencia del Tribunal Supremo que os he comentado. A eso y a la historia de los cangrejos españoles en el cubo…

[1] Convenio de Berna para la Protección de las Obras Literarias y Artísticas, art. 9.2: “Se reserva a las legislaciones de los países de la Unión la facultad de permitir la reproducción de dichas obras en determinados casos especiales, con tal que esa reproducción no atente a la explotación normal de la obra ni cause un perjuicio injustificado a los intereses legítimos del autor.”
Acuerdo sobre los Aspectos de los Derechos de Propiedad Intelectual relacionados con el Comercio, art. 13: “Los Miembros circunscribirán las limitaciones o excepciones impuestas a los derechos exclusivos a determinados casos especiales que no atenten contra la explotación normal de la obra ni causen un perjuicio injustificado a los intereses legítimos del titular de los derechos.”