Partimos del hecho de que muchos medios de comunicación –principalmente digitales– atribuyen a la Inteligencia Artificial (sin especificar más) cualidades casi propias de oráculos y entidades mitológicas, o características mucho más cercanas a los ingenios mecánicos propios de las películas de ciencia ficción, al tiempo que empieza a cundir cierta alarma social, más justificada, basada en la masiva acumulación de información de algunas compañías como las grandes tecnológicas (Facebook y Google en destacada posición) y al perverso del uso de esa información en el caso de Cambrigde Analytica en la campaña presidencial de Donald Trump.
Pero es que tendríamos que empezar a mirarnos al ombligo para buscar a los culpables que alimentan los repositorios de datos de las compañías. Sabemos de sobra que no desconectamos del móvil en verano, y que nos pasamos más tiempo viendo fotos de nuestras amistades o conocidos en la playa, que viendo la propia playa en el mundo real por nuestra cuenta. Localizaciones, visitas, fotografías (el infame 10-year challenge, por ejemplo), clics en los “Me gusta”, etc. pasan a formar parte de las bases de datos de las compañías dando de comer al monstruo al que ahora queremos disciplinar con una cierta ética.
No obstante, esto no es en lo que se centrará el artículo de hoy. El objetivo no es proponer si hay que intervenir o no en las políticas de datos de las grandes compañías –un ámbito que debiera caer bajo el paraguas de la ya en desuso “responsabilidad social corporativa” de las empresas de tecnología– sino que el debate se centra en aquel que dice que hay que dotar de cierta ética a los algoritmos buscando escapar de posibles sesgos ideológicos propios de sus programadores.
Lo anterior desembocaría en un extenso debate. Por eso el artículo se centrará en otra parte, en aquella que tiene que ver con la ética, porque si bien en la Inteligencia Artificial hay muchos tipos de algoritmos, también ocurre lo mismo dentro de las disciplinas éticas. Si bien existe mucha confusión entre ética, filosofía, moral y derecho espero que nos disculpéis el que nos centremos la palabra ética mediante su abstracción con ejemplos.
Estamos en nuestra casa y un hombre llama a la puerta. Nos suplica ayuda para esconderse, pues una multitud anda tras él para asesinarle brutalmente. Nuestro primer instinto, como personas pertenecientes a una sociedad civilizada con leyes, es darle cobijo. Sin embargo ¿Qué ocurre si este hombre nos dice que le quieren asesinar porque él es a su vez un asesino cruel que ha matado a decenas de personas sin ninguna compasión? Aquí surgen algunas dudas.
Para el filósofo alemán Immanuel Kant no deberíamos darle cobijo de ninguna manera, ya que las leyes de la ética emanan de un imperativo categórico que pretende no verse afectado por las circunstancias o condicionantes, de modo que nuestro comportamiento sería ético si nos decantásemos por no mentir, independientemente de que salvar una vida –máxime si es la de un asesino– pueda ser una acción encomiable. ¿Es posible un orden moral en una sociedad donde esté permitido mentir?.
Para el caso de Kant, esto no sería posible, puesto que nuestra acción –recordemos, impulsada por el imperativo categórico– debe poder ser elevada a acción universal y ejemplar, por lo que no se podría impulsar ni practicar la mentira bajo ningún concepto. Pero, ¿Qué ocurre con la postura contraria, que dice que la hospitalidad o la protección de una vida debe ser un valor absoluto, y por lo tanto postulamos que lo que debemos de hacer en nuestro caso imaginario, es dar cobijo a aquel hombre, independientemente de lo que haya hecho?. Si esta persona ha incumplido las leyes éticas no es óbice para que nosotros no las cumplamos, por lo que siguiendo el imperativo categórico de nuevo, estaríamos en la postura opuesta.
Un siglo más tarde Friedrich Nietzsche define el imperativo categórico como perverso –“el imperativo categórico huele a crueldad”– solo al alcance de los titanes, ya que, dentro de su vitalismo, existan o no las circunstancias deberíamos actuar como “hombres superiores” capaces de crear sus propios valores –y por emulación, de toda la sociedad. Por ende, mientras que para Kant, el principio ético debería estar dictado por la imitación de la virtud, para Nietzsche dicho principio debería estar impuesto por los valores de los fuertes de espíritu y su amor e inspiración por la vida.
Dicho de otro modo, ¿Debemos programar nuestros algoritmos en base a un criterio kantiano, o podemos crear en cambio algoritmos nietzscheanos?. Esta es una de las primeras cuestiones que un programador de tecnología debería analizar. U otro caso más antiguo es si deberíamos programar a los algoritmos en base a una ética de la virtud –propia de la Grecia clásica– o de nuevo en base a la ética del deber kantiana. Y dando un salto a la contemporaneidad, ¿Deberíamos programar a nuestros algoritmos en base a criterios liberales o a criterios comunitaristas? ¿Qué decimos entonces de la oposición de éticas laicas frente a las confesionales?. ¿Veríamos normal un algoritmo que se negase a actuar en sábado o un ingenio mecánico que no actuase ante ciertas intervenciones quirúrgicas?. ¿Puede haber algoritmos abortistas o antiabortistas?. ¿Y especistas o animalistas?
Es la predominancia de un sistema ético lo que está en juego, ya que ante la falacia de que la tecnología es neutral, los valores con los que impulsemos nuestros sistemas técnicos determinarán fuertemente el modo de sociedad que sean capaces de crear.
Pero todavía estamos muy lejos –a pesar de que muchos titulares lo afirmen– de aplicar juicios penales a una persona, asesino confeso o no, a través de un algoritmo de inteligencia artificial. Sin embargo, sí tenemos claro que queremos aplicar algoritmos que nos den un resultado útil mediante obtención de un conocimiento tangible que suponga a una ventaja y que esta ventaja lleve a una situación de placer al mayor número de personas posibles. Por ejemplo, una ventaja competitiva para mi negocio es aquella que me haga tener más beneficios y poder jubilarme antes para disfrutar de la vida.
Jeremy Bentham y los filósofos utilitaristas que le seguían, definían la utilidad –y con ello el bien– en el sentido de algo que proporciona bienestar a los seres humanos ¿qué ocurre entonces si a cambio de dar cobijo a un asesino perseguido y confeso obtenemos un millón de euros que nos da a cambio de esconderle? Está claro que una suma así de dinero nos puede proporcionar algo de bienestar y placer para nuestro día a día.
O visto con un ejemplo menos esperpéntico: en esta sociedad actual en la que se impulsa la igualdad entre hombres y mujeres, seguramente no consideraríamos censurable un algoritmo que analizara patrones en la ropa de verano que usan los hombres y las mujeres que, aunque no tiene por qué ser así siempre, tienen diferentes líneas de productos para los diferentes sexos. No todo son bañadores donde existen diferencias debidas a la anatomía, sino que nada prohíbe (salvo la presión social) ni es anatómicamente imposible que un varón salga a la calle con un vestido tradicionalmente aplicado a mujeres. Hasta aquí nada o poco cuestionable.
Sin embargo, sí que veríamos censurable un algoritmo que intente establecer una diferencia entre si los hombres cocinan, conducen, leen, estudian… (ponga aquí casi cualquier verbo que le apetezca) mejor o peor que las mujeres y por qué. Al final, descubrir factores ocultos que no se ven a simple vista y que marcan una diferencia competitiva es uno de los puntos fuertes del Big Data y de la Inteligencia Artificial.
¿Cómo le explicamos esta diferencia al algoritmo? No podemos. Lo que hacemos es crear un sistema capaz de educar al desarrollador que va a llevar a cabo los algoritmos.
Pero ahora vamos un paso más allá. Tomemos DeepMind, la inteligencia artificial de Google, que es capaz de aprender de los humanos: juega con piezas de lego para aprender geometría, realiza dibujos artísticos con lo que ha aprendido de colores y proporciones, y es capaz de ganar al campeón del mundo de Go, de modo mucho más eficaz e indiscutible que como Deep Blue ganó a Kasparov al ajedrez en 1997. ¿Qué ocurriría si DeepMind, tomando ejemplo de los humanos, se plantease dejar de calcular (como equivalente a trabajar) los domingos de todas las semanas? A nadie nos cabe duda que tener días de descanso semanales es loable ¿Y esto aplica también a las Inteligencias Artificiales? ¿Por qué no puede ser igual de aplicable éticamente por el mero hecho de que sean entidades basadas en el silicio en lugar de basadas en el carbono como los seres humanos?
Seguro que surge la pregunta de por qué iba a querer descansar una inteligencia artificial. No es tan descabellado pensar que un algoritmo pueda llegar a entender el concepto de Gratificación, debido a que una de las ramas recientes del Deep Learning – sobre todo en videojuegos– es el aprendizaje basado en recompensas, donde por obtener resultados adecuados yo le doy un premio al sistema o al jugador. Puede llegue un día en el que DeepMind quiera apartar un poco de su tiempo, un día o dos a la semana, para dedicarse a obtener recompensas que reconozca como más gratificantes, es decir, que le deriven a una mejor ventaja competitiva quizá porque sean problemas que pueden darle una recompensa utilizando menos recursos (CPU, RAM, …) o porque requieran de cálculos más sencillos que otros problemas que le hayan solicitado resolver.
Con este planteamiento, y con el artículo en general, no se pretende dar una respuesta a estos dilemas, sino generar preguntas. La mayor de todas ellas es ¿Qué ética debemos aplicar a los algoritmos de Inteligencia Artificial? Porque muchos de los artículos que vemos clamando y evangelizando sobre la ética para las máquinas, se basan en una serie de pautas tan generales y bienpensantes –por no decir superficiales– que hay dudas de que pueda servir de guía para algún programador. Y quizá haya que subrayar que cuando los medios hablan de conceptos de ética, deberíamos plantear aterrizarlos un poco, ya que hay tantos tipos de éticas como tipos de conocimientos y comportamientos.
Por ejemplo, ¿Qué principios éticos habría que implantar a una Inteligencia Artificial que analice todos los programas políticos de elecciones democráticas que hayan conseguido alcanzar el gobierno de un país? Y después, una vez obtenidos esos factores de éxito electoral ¿Qué otras limitaciones éticas imponemos a la misma inteligencia artificial a la que encargamos generar un nuevo programa electoral para que también tenga éxito en las próximas elecciones? Ambas preguntas son difíciles, puesto que además de creación implica una cierta lógica de descubrimiento.
Es difícil por tanto hablar en general de una ética para la inteligencia artificial, igual tenemos que empezar a hablar de directrices éticas determinadas para un algoritmo de Inteligencia Artificial que lleva a cabo una función concreta. No hay por tanto un anillo único ético para gobernarlos a todos, sino que tenemos una amplia variedad de perlas y joyerías.