¿Pueden y deben tener derechos los robots?
Por: Javier Orlando Muñoz Bastidas.
Poder hacer la pregunta: ¿pueden y deben tener derechos los robots?, evidencia una problemática que va mucho más allá de la legalidad, y se extiende hasta la cuestión de la consciencia misma. ¿Qué hace que algo o alguien tenga la capacidad y la posibilidad de tener derechos? ¿la vida? ¿la consciencia? ¿la autonomía individual? Es algo muy complejo, porque no se puede tener como parámetro lo humano para responder afirmativamente. No toda vida es una vida humana, no toda consciencia es humana. Pero, ¿las otras formas de vida y de consciencia no son igual de dignas que la humana?
Lo anterior lo podemos complejizar aún más cuando preguntamos: ¿cuáles derechos? Para que una nueva concepción de vida y de consciencia tenga derechos, ¿se requiere una nueva concepción de los mismos? Esto quiere decir que no se trata simplemente de asignar derechos, sino de cuestionar la concepción misma del derecho.
Lo importante es que la pregunta es válida, lo que evidencia un proceso de problematización de las nociones de consciencia y legalidad. Algo que ha permitido la emergencia disruptiva de la inteligencia artificial como sistema de aprendizaje y toma de decisiones autónomo. Si la IA fuera un simple sistema automático, no habría tanto problema. El asunto complejo es cuando un sistema evoluciona hacia una algoritmización autónoma. La pregunta fundamental es si una IA puede evolucionar hacia un “organismo vivo”. ¿Qué impide que una IA sea reconocida como un organismo vivo? Es aquí donde es importante la pregunta: ¿pueden y deben tener derechos los robots?
Como lo plantea Gunkel (2018), en esa pregunta hay dos: 1. ¿Pueden los robots tener derechos?, es decir: ¿tienen los robots la capacidad ontológica para tener derechos?, o mejor: "¿Son los robots capaces de ser titulares de derechos?” (Gunkel, 2018). y 2. ¿Deben los robots tener derechos?, es decir, ¿se les deben asignar derechos a los robots?, o mejor: "¿Deberían los robots ser considerados como poseedores de privilegios, reclamaciones, poderes y/o inmunidades?" (Gunkel, 2018).
Lo anterior es muy importante, porque plantea el debate si el poder tener derechos implica el tenerlos, o al contrario. Es decir: 1. ¿Pueden tener derechos, y por eso deben tenerlos?, 2. ¿Pueden tener derechos, pero no deben?, 3. ¿No pueden, pero deben tener derechos?, y 4. ¿No pueden y por eso no deben tenerlos?
La pregunta fundamental es: ¿quién determina el poder ser y deber ser?, ¿quién tiene la capacidad de determinar que algo o alguien puede tener derechos, porque tiene la capacidad consciente de asumirlos?, ¿quién define y decide que algo o alguien debería tener derechos, aunque se determine que no tiene la capacidad de ser consciente de los mismos? La respuesta está en lo que López Medina (2016) denomina como: el proceso de construcción de los derechos. ¿Cómo se deberían construir los derechos de los robots?, ¿cómo transformar la concepción de vida y consciencia, que afirme como tal a la emergencia disruptiva de los sistemas algorítmicos evolucionados?
Bostrom (2016) afirma que hay una alternativa a la disruptividad de la IA, y es la emergencia controlada de la superinteligencia artificial como singularidad. Esto quiere decir que, si la consciencia de la IA es inevitable, se deben crear las condiciones necesarias para que esta no sea catastrófica. ¿Cómo así? Si la IA en algún momento tomara consciencia de sí (una consciencia diferente a la humana), según Bostrom (2016) esto puede tener al menos tres consecuencias: 1. Destrucción de la consciencia humana, 2. Acoplamiento con la consciencia humana, 3. Indiferencia hacia la consciencia humana. La emergencia controlada de la consciencia de la IA busca atenuar la posibilidad de una destrucción. Por eso la pregunta: ¿pueden y deben tener derechos los robots?, es importante porque se presenta como un dispositivo de control. La posibilidad de pensar en la asignación de un derecho, se presenta cuando hay un peligro potencial. En el caso de la IA, es el peligro de una nueva consciencia.
Lo anterior quiere decir que la pregunta sobre la capacidad de los robots, como sistemas autónomos de IA, debe replantearse hacia las emergencias de nuevas formas de consciencia diferentes a la humana. ¿Nuevas consciencias implican el proceso de creación de nuevos derechos?, ¿pueden tener derechos los robots? Sí, siempre se transforme y se transgreda la concepción humana de consciencia.
De igual modo, la pregunta sobre si deberían tener derechos los robots debe replantearse hacia las implicaciones éticas que las nuevas consciencias pueden tener. La pregunta: ¿deberían tener derechos?, cuestiona sobre las condiciones éticas de un individuo, que lo hacen merecedor de derechos. Pero también es una forma de control del individuo mismo, en tanto que al asignar derechos se le imponen también responsabilidades. Los derechos de los robots podrían ser una forma de control de la evolución de la consciencia, mediante el cual se evite al máximo el desastre. Lo cierto es que el derecho como deber, permite una operatividad pública y abierta de los desarrollos de la IA.
Para Gunkel (2018), el deber ser es lo que otorga el poder ser. Es decir, sólo cuando se considera a un individuo o a un organismo vivo como digno de asignación de derechos, es cuando se lo considera con la capacidad o la posibilidad de asumirlos, o de llegar a asumirlos. El punto ciego que tiene el argumento de Gunkel, es que en la pregunta, ¿deben tener derecho los robots, para que haga posible el poder tenerlos?, no se tiene en cuenta la inter-relación afectiva con los robots mismos. ¿Pueden y deben los robots “luchar” por sus derechos?
Cuando se afirma la posibilidad de la emergencia de otras consciencias, diferentes a la humana, se cuestiona los parámetros éticos de la vida. ¿Por primera vez se puede empezar a cuestionar a lo humano como parámetro de la existencia? Si un sistema de IA evoluciona hacia un organismo vivo, se hace necesario el reconocimiento y diálogo de esa otredad. La IA está generando un gran interrogante sobre la consciencia humana como la única que puede acceder al Logos. ¿La disrupción está cerca?
El problema se amplía cuando Gunkel (2018) afirma que entre los expertos no hay un consenso sobre cómo definir un robot. ¿Qué es un robot? Por ahora, lo que se tiene claro es que un robot es un sistema que puede: pensar, sentir y actuar, pero mediante un “procesador” de “inteligencia artificial”. Este es el punto que hace compleja la cuestión: el robot es una artificialidad, que emula una consciencia individual. Si la concepción de IA evoluciona hacia organismo vivo, ¿la concepción de robot debe evolucionar hacia la concepción de individuo?
Bibliografía.
Bostrom, N. (2016). Superinteligencia. Caminos, peligros, estrategias. Teell Editorial, S.L.
López, D. (2016). Cómo se construyen los derechos, Legis Ediciones S.A.


Comentarios
Publicar un comentario