Los usuarios requieren mayor protección que la otorgada por las leyes respecto a tecnologías como el machine learning.
El machine learning es una de las aplicaciones de la inteligencia artificial que más uso tiene en estos días. Sin embargo, por las características propias del aprendizaje automático (como se llama en español), requiere de gran cantidad de información que se suele obtener del minado de textos y datos.
Desde un artículo del Wolters Kluwer Blog se refieren a este tema, relacionándolo con la Directiva de la Unión Europea sobre Protección de los Derechos de Autor en el Mercado Único Digital. La cual, ha establecido excepciones en sus artículos 3 y 4 a la protección que provee en relación con la minería de textos y datos.
Su finalidad es que se pueda alimentar el machine learning con todo tipo de textos sin necesidad de pedir permiso a quienes ostentan derechos de copyright. Así, por ejemplo, podría alimentarse con todas las obras de un determinado autor, como Víctor Hugo o Cervantes. O bien, con toda la obra de Michel Foucault a un determinado bot con la finalidad de enseñarle a través de machine learning conceptos de filosofía e historia, y no requeriría el consentimiento de sus derechohabientes. Lo cual sí hubiera sido necesario de no haberse establecido este tipo de excepciones.
La protección de datos y el machine learning
No obstante, la citada directiva no prevalece en el orden jurídico sobre el Reglamento General de Protección de Datos Personales porque son normativas independientes. Además, su texto no hace explícita la inclusión del reglamento dentro de su articulado. Por tanto, se seguiría aplicando la protección de datos aun en la aplicación del machine learning.
Esto supone una paradoja. Porque si, por ejemplo, se alimenta a una máquina de IA con todas las noticias de España con la finalidad de que esté actualizada, habría que ponderar si este tratamiento es acorde al RGPD. Se tendría que realizar, entonces, una Evaluación de Impacto de Protección de Datos.
 
	
		También hay escenarios complejos. Pongamos por ejemplo que se pretendiera alimentar a la IA con fotografías -que, en un principio, son obras-, pero que, además, suelen recoger caras de personas físicas -dato personal-. Se requeriría cumplir con las bases legitimadoras del Reglamento General de Protección de Datos -por ejemplo contando con el consentimiento–. Igualmente, en relación con las publicaciones de usuarios en redes sociales que, en principio, no estarían autorizadas por el RGPD.
Como ejemplo de esta disyuntiva, el autor del artículo citado nos pone un caso americano. Sobre una empresa llamada Everalbum, que utilizaba reconocimiento facial para etiquetar a los amigos de una persona para generar álbumes personalizados para cada uno de ellos.
El problema fue que la empresa afirmaba que nunca utilizaría el reconocimiento facial con otra finalidad que para hacer álbumes. Sin embargo, incumplió esta promesa produciendo, a través del machine learning, una serie de programas de reconocimiento facial que luego vendía.
Esto dio lugar a que la empresa fuera condenada y se le impusiera borrar los algoritmos y programas que habían utilizado la información, así como la totalidad de las bases de datos que había obtenido sin el consentimiento adecuado. Pero el sustento no estuvo en la normativa estadounidense, sino porque estaba obligado contractualmente a ello.
Los ciudadanos exigen más protección
Todo esto resume que los usuarios de ambos continentes requieren cada vez más que existan precauciones adicionales a las que existen en la normativa. En el caso europeo menos porque el RGPD es mucho más estricto, a diferencia de los EEUU. E incluso existen iniciativas privadas como el Pacto de Protección de Datos Personales que aseguran estos derechos.
Un pacto del sector del machine learning, como mecanismo de autoregulación, podría impulsar fuertemente la imagen de respeto de la privacidad del sector y aumentar su reputación y la confianza de los ciudadanos.

 
	     
								    				