miércoles, 11 de enero de 2017

Puede que no se sienta como nada el ser un extraterrestre

Texto original: Susan Schneider, It May Not Feel Like Anything To Be an Alien, ieet.org, Dec 18, 2016 - Trad. cast. de Andrés Salvador
Puede que no se sienta como nada el ser un extraterrestre


Los seres humanos no son probablemente las más grandes inteligencias en el universo. La Tierra es un planeta relativamente jóven y las más antiguas civilizaciones podrían ser billones de años más viejas que nosotros. Pero incluso en la Tierra, el Homo sapiens  puede no ser la especie más inteligente por mucho más tiempo.

Los campeones del mundo de Go, ajedrez y Jeopardy son ahora todos AIs [=Artificials Intelligences: Inteligencias Artificiales (IAs)]. Se prevé que la AI [=Artificial Intelligence: Inteligencia Artificial (IA)] obsoletice [=outmode] muchas profesiones humanas dentro de las próximas décadas. Y dado el rápido ritmo de su desarrollo, la AI pronto podrá avanzar a la inteligencia artificial general—inteligncia que, al igual que la inteligencia humana, puede combinar percepciones de diferentes áreas tópicas y mostrar flexibilidad y sentido común. A partir de ahí se trata de un pequeño salto a la AI súperinteligente, que es más inteligente que los humanos en todos los aspectos, incluso aquelos que ahora parecen firmemente en el dominio humano, tales como el razonamiento científico y las habilidades sociales. Cada uno de nosotros vivo hoy puede ser uno de los últimos peldaños en la escala evolutiva que conduce desde la primera célula viviente a la inteligencia sintética.

Lo que sólo estamos empezando a comprender es que estas dos formas de inteligencia sobrehumana—extraterrestres y artificiales—pueden no ser tan distintas. Los desarrollos tecnológicos que estamos presenciando hoy pueden haber ocurrido antes, en otras partes del universo. La transición de la inteligencia biológica a la sintética puede ser un patrón general, instanciado una y otra vez, en todo el cosmos. Las mayores inteligencias del universo pueden ser post-biológicas, habiendo surgido de civilizaciones que antes eran biológicas. (Esta es una opinión que comparto con Paul Davies, Steven Dick, Martin Rees y Seth Shostak, entre otros.) A juzgar por la experiencia humana—el único ejemplo que tenemos—la transición de lo biológico a lo postbiológico puede tomar sólo unos pocos cientos años.


Prefiero el término "postbiológico" a "artificial" porque el contraste entre biológico y sintético no es muy agudo. Considere una mente biológica que logra la superinteligencia a través de mejoras puramente biológicas, como minicolumnas neuronales mejoradas nanotecnológicamente. Esta criatura sería posbiológica, aunque tal vez muchos no lo llamen una "AI". O considere un computronium que está construido a partir de materiales puramente biológicos, como el Cylon Raider en la reimaginada serie de TV Battlestar Galactica.

El punto clave es que no hay razón para esperar que los humanos sean la forma más alta de inteligencia que existe. Nuestros cerebros evolucionaron para ambientes específicos y están fuertemente constreñidos por la química y las contingencias históricas. Pero la tecnología ha abierto un vasto espacio de diseño, ofreciendo nuevos materiales y modos de operación, así como nuevas formas de explorar ese espacio a un ritmo mucho más rápido que la evolución biológica tradicional. Y creo que ya vemos razones por las que la inteligencia sintética nos superará [=outperform].

Una AI extraterrestre podría tener objetivos que estén en conflicto con los de 
la vida biológica.

Los microchips de silicio ya parecen ser un medio mejor para el procesamiento de la información que los grupos de neuronas. Las neuronas alcanzan una velocidad máxima de unos 200 hercios, en comparación con los gigahercios para los transistores en los microprocesadores actuales. Aunque el cerebro humano es todavía mucho más inteligente que una computadora, las máquinas tienen espacio casi ilimitado para mejorar. Puede que no sea mucho antes de que puedan ser diseñados para igualar o incluso superar la inteligencia del cerebro humano a través de la ingeniería inversa del cerebro y la mejora de sus algoritmos, o mediante una combinación de ingeniería inversa y algoritmos juiciosos que no se basen en el funcionamiento del cerebro humano.

Además, una AI se puede descargar a múltiples locaciones a la vez, es fácilmente respaldada [=backed] y modificada, y puede sobrevivir bajo condiciones con las que la vida biológica tiene problemas, incluyendo viajes interestelares. Nuestros  míseros cerebros están limitados por el volumen craneal y el metabolismo; La AI superinteligente, en marcado contraste, podría extender su alcance a través de Internet e incluso establecer un computronium del ancho de una Galaxia [=Galaxy-wide], utilizando toda la materia dentro de nuestra galaxia para maximizar los cálculos. Simplemente no hay contienda. La AI Superinteligente sería mucho más duradera que nosotros.

Supongamos que tengo razón. Supongamos que la vida inteligente es postbiológica. Qué debemos hacer de esto? Aquí, los debates actuales sobre la AI en la Tierra son reveladores. Dos de los principales puntos de discusión—el así-llamado problema de control y la naturaleza de la experiencia subjetiva—afectan nuestra comprensión de lo que pueden ser otras civilizaciones extraterrestres y lo que nos pueden hacer cuando finalmente nos encontremos.

Ray Kurzweil toma una visión optimista de la fase postbiológica de la evolución, sugiriendo que la humanidad se fusionará con las máquinas, alcanzando una magnífica tecnotopía. Sin embargo, Stephen Hawking, Bill Gates, Elon Musk y otros han expresado la preocupación de que los seres humanos podrían perder el control de la AI superinteligente, ya que puede reescribir su propia programación y pensar en las medidas de control que construimos. Esto se ha llamado el "problema de control"—el problema de cómo podemos controlar una AI que es a la vez inescrutable y vastamente superior intelectualmente a nosotros.

La AI superinteligente podría desarrollarse durante una singularidad tecnológica, una transición abrupta cuando los avances tecnológicos cada vez más rápidos—especialmente una explosión de la inteligencia—se deslice más allá de nuestra capacidad de predecir o comprender. Pero incluso si tal inteligencia surge de manera menos dramática, puede que no haya modo de predecir o controlar sus objetivos. Incluso si pudiéramos decidir sobre qué principios morales construir en nuestras máquinas, la programación moral es difícil de especificar de una manera infalible, y tal programación podría ser reescrita por una superinteligencia en cualquier caso. Una máquina inteligente podría pasar por alto las salvaguardias, como los interruptores de matar, y podría potencialmente plantear una amenaza existencial para la vida biológica. Millones de dólares están llegando a organizaciones dedicadas a la seguridad de la AI. Algunas de las mejores mentes en ciencia de la computación  están trabajando en este problema. Se espera que creen sistemas seguros, pero muchos se preocupan de que el problema de control sea insuperable.

A la luz de esto, el contacto con una inteligencia extraterrestre puede ser aún más peligroso de lo que pensamos. Los extraterrestres biológicos podrían ser hostiles, pero una AI extraterrestre podría representar un riesgo aún mayor. Puede tener objetivos que estén en conflicto con los de la vida biológica, tener a su disposición habilidades intelectuales vastamente superiores, y ser mucho más duraderos que la vida biológica.

Eso argumenta por precaución con el llamado SETI Activo, en el cual no sólo escuchamos pasivamente las señales de otras civilizaciones, sino que deliberadamente anunciamos nuestra presencia. En el ejemplo más famoso, en 1974, Frank Drake y Carl Sagan utilizaron el telescopio gigante en Arecibo, Puerto Rico, para enviar un mensaje a un grupo de estrellas. Los defensores de Active SETI sostienen que, en lugar de escuchar sólo pasivamente los signos de inteligencia extraterrestre, deberíamos usar nuestros transmisores de radio más poderosos, como Arecibo, para enviar mensajes en la dirección de las estrellas más cercanas a la Tierra.

Por qué las máquinas no conscientes tendrían el mismo valor que colocamos en 
la inteligencia biológica?

Tal programa me parece imprudente cuando se considera el problema de control. Aunque una civilización verdaderamente avanzada probablemente no tendría interés en nosotros, incluso una civilización hostil entre millones podría ser catastrófica. Hasta que no hayamos llegado a un punto en el que podamos estar seguros de que la AI superinteligente no representa una amenaza para nosotros, no debemos llamar la atención sobre nosotros mismos. Los defensores de Active SETI señalan que nuestras señales de radar y de radio ya son detectables, pero estas señales son bastante débiles y rápidamente se mezclan con el ruido galáctico natural. Estaríamos jugando con fuego si transmitiéramos señales más fuertes que estuvieran destinadas a ser escuchadas.

La mentalidad más segura es la humildad intelectual. De hecho, excepto escenarios manifiestamente obvios en los que las naves alienígenas se ciernen sobre la Tierra, como en la reciente película Arrival, me pregunto si podríamos incluso reconocer los marcadores tecnológicos de una superinteligencia verdaderamente avanzada. Algunos científicos proyectan que las AIs superinteligentes podrían alimentarse de agujeros negros o crear Esferas Dyson, megastructuras que aprovechan la energía de estrellas enteras. Pero estas son sólo especulaciones desde el punto de vista de nuestra tecnología actual; Es simplemente la altura de la arrogancia de afirmar que podemos prever las habilidades computacionales y las necesidades energéticas de una civilización millones o incluso billones de años por delante de la nuestra.

Algunas de las primeras AIs superinteligentes podrían tener sistemas cognitivos que se modelen aproximadamente a la manera del cerebro biológico—la forma, por ejemplo, en que los sistemas de aprendizaje profundo se modelan aproximadamente en las redes neuronales del cerebro. Su estructura computacional puede ser comprensible para nosotros, al menos en líneas generales. Pueden incluso mantener las metas que tienen los seres biológicos, como la reproducción y la supervivencia.

Pero las AIs superinteligentes, que se auto-mejoran, podrían transformarse rápidamente en una forma irreconocible. Tal vez algunos opten por conservar características cognitivas similares a la de las especies a la manera de las cuales fueron originalmente modeladas, colocando un techo de diseño en su propia arquitectura cognitiva. Quién sabe? Pero sin un techo, una superinteligencia extraterrestre podría superar rápidamente nuestra habilidad de dar sentido a sus acciones, o incluso buscarla. Tal vez se mezclara con los rasgos naturales del universo; tal vez sea en la materia oscura misma, como Caleb Scharf especuló recientemente.

Lo siento, Dave

Si crees que las máquinas inteligentes son peligrosas, imagina lo que las máquinas extraterrestres inteligentes podrían hacer. YouTube / Warner Bros.

Un defensor de Active SETI señalará que es precisamente por eso que debemos enviar señales al espacio—dejarlos que nos encuentren y que diseñen medios de contacto que juzgan tangibles para una especie intelectualmente inferior como nosotros. Aunque estoy de acuerdo en que es una razón para considerar Active SETI, la posibilidad de encontrar una superinteligencia peligrosa la supera. Por lo que sabemos, las superinteligencias maliciosas pueden infectar a los sistemas AI planetarios con virus, y las civilizaciones prudentes [=wise] construyen dispositivos de encubrimiento. Nosotros los humanos podemos necesitar alcanzar nuestra propia singularidad antes de embarcarnos en Active SETI. Nuestras propios AIs superinteligentes podrán informarnos de las perspectivas para la seguridad AI galáctica y de cómo iríamos a reconocer signos de superinteligencia en otras partes del universo. Se necesita uno para conocer uno.

Es natural preguntarse si todo esto significa que los humanos deben evitar el desarrollo de AI sofisticada para la exploración espacial; Después de todo, recuerda el icónico HAL en 2001: Una Odisea del Espacio. Considerar una futura prohibición de la AI en el espacio sería prematuro, creo. Para el momento en que la humanidad sea capaz de investigar el universo con sus propias AIs, nosotros los humanos probablemente hayamos alcanzado un punto de inflexión. Ya habremos perdido el control de la AI—en cuyo caso los proyectos espaciales iniciados por los humanos ni siquiera ocurrirán—o lograremos un control más firme de la seguridad de la AI. El tiempo dirá.

Inteligencia pura [=Raw] no es el único tema de qué preocuparse. Normalmente, esperamos que si nos encontramos con inteligencia extraterrestre avanzada, es probable que encontremos criaturas con biologías muy diferentes, pero todavía tendrían mentes como la nuestra en un sentido importante—habría algo que es como, desde dentro, para ser ellos. Considere que cada momento de su vida de vigilia, y siempre que usted está soñando, se siente como algo ser usted. Cuando usted ve los tonos cálidos de un amanecer, o el olor del aroma de pan recién horneado, usted está teniendo una experiencia consciente. Del mismo modo, también hay algo que es como ser un extraterrestre—o lo lo que así  asumimos comúnmente. Sin embargo, esa suposición necesita ser cuestionada. Tendrían las AIs superinteligentes incluso experiencia consciente y, si la tuvieran, podríamos decirlo? Y cómo su vida interior, o su falta, nos impacta?

La cuestión de si las AIs tienen una vida interior es clave para la forma en que valoramos su existencia. La conciencia es la piedra angular filosófica de nuestros sistemas morales, siendo clave para nuestro juicio de si alguien o algo es un yo o una persona en lugar de un mero autómata. Y a la inversa, si son conscientes también puede ser clave para la forma en que nos valoran. El valor que una AI pone en nosotros bien puede depender de si tiene una vida interior; Utilizando su propia experiencia subjetiva como trampolín, podría reconocer en nosotros la capacidad de la experiencia consciente. Después de todo, en la medida en que valoramos las vidas de otras especies, las valoramos porque sentimos una afinidad de conciencia—así la mayoría de nosotros retrocedemos de matar a un chimpancé, pero no de mascar una manzana.

Pero cómo pueden los seres con enormes diferencias intelectuales y que están hechos de diferentes sustratos reconocer la consciencia en el otro? Los filósofos de la Tierra han ponderado si la conciencia está limitada a los fenómenos biológicos. La AI Superinteligente, si fuese filosófica, podría plantear similarmente un "problema de conciencia biológica" acerca de nosotros, preguntándo si tenemos la materia [=stuff] adecuada para la experiencia.

Quién sabe qué camino intelectual tomaría una superinteligencia para saber si somos conscientes. Pero por nuestra parte, cómo podemos los humanos decir si una AI es consciente? Desafortunadamente, esto será difícil. Ahora mismo, usted puede decir que está teniendo experiencia, ya que se siente como algo ser tú. Usted es su propio caso paradigma de experiencia consciente. Y usted cree que otras personas y ciertos animales no humanos son probablemente conscientes, porque son neurofisiológicamente similares a usted. Pero cómo se supone que debes saber si algo hecho de un sustrato diferente puede tener experiencia?

Considere, por ejemplo, una superinteligencia basada en silicio. Aunque tanto los microchips de silicio como las minicolumnas neurales procesan la información, por lo que sabemos ahora podrían diferir molecularmente en formas que impactan la conciencia. Después de todo, sospechamos que el carbono es químicamente más adecuado a la vida compleja que el silicio. Si las diferencias químicas entre el silicio y el carbono impactan algo tan importante como la vida misma, no debemos descartar la posibilidad de que las diferencias químicas también impacten otras funciones claves, como si el silicio da lugar a la conciencia.

Las condiciones requeridas para la conciencia son debatidas activamente por investigadores de la AI, los neurocientíficos y los filósofos de la mente. Resolverlos podría requerir un enfoque empírico que esté fundamentado por la filosofía—un medio para determinar, caso por caso, si un sistema de procesamiento de información soporta la conciencia y bajo qué condiciones.

Aquí está una sugerencia, una manera que podemos al menos mejorar nuestra comprensión de si el silicio soporta la conciencia. Los chips de cerebro basados ​​en el silicio ya están en desarrollo como un tratamiento para diversas condiciones relacionadas con la memoria, como el Alzheimer y el deorden de estrés postraumático. Si en algún momento se usan chips en áreas del cerebro responsables de funciones conscientes, como la atención y la memoria de trabajo, podríamos empezar a entender si el silicio es un sustrato para la conciencia. Podemos encontrar que el reemplazo de una región del cerebro con un chip causa una pérdida de cierta experiencia, como los episodios sobre que Oliver Sacks escribió. Los ingenieros de las chips podrían intentar entonces un sustrato diferente, no-neuronal, pero pueden encontrar eventual que el único "chip" que trabaja es uno que es ingenieriado [=engineered] de neuronas biológicas. Este procedimiento serviría como medio para determinar si los sistemas artificiales pueden ser conscientes, al menos cuando se colocan en un sistema más grande que ya creemos que es consciente.

Incluso si el silicio puede dar lugar a la conciencia, podría hacerlo sólo en circunstancias muy específicas; Las propiedades que dan lugar a procesamiento de información sofisticado (y sobre el que los desarrolladores de AI se preocupan) pueden no ser las mismas propiedades que producen la conciencia. La conciencia puede requerir la ingeniería de la consciencia—un esfuerzo deliberado de ingeniería para poner conciencia en las máquinas.

Aquí está mi preocupación. Quién, en la Tierra o en planetas lejanos, tendría como objetivo lograr [=engineer] la conciencia en los propios sistemas de AI? De hecho, cuando pienso en los programas de AI existentes en la Tierra, puedo ver ciertas razones por las que los ingenieros de AI pueden evitar activamente crear máquinas conscientes.

Los robots están siendo diseñados para cuidar a los ancianos en Japón, limpiar los reactores nucleares y luchar nuestras guerras. Naturalmente, la pregunta ha surgido: Es ético utilizar robots para tales tareas si resultan ser conscientes? Cómo diferiría eso de criar humanos para estas tareas? Si yo fuera un director de AI en Google o Facebook, pensando en futuros proyectos, no querría la confusión ética de diseñar inadvertidamente un sistema sensible. Desarrollar un sistema que resulta ser sensible podría llevar a acusaciones de esclavitud robótica y otras pesadillas de relaciones públicas, e incluso podría conducir a una prohibición del uso de la tecnología de AI en las mismas áreas en las que la AI fue diseñada para ser usada. Una respuesta natural a esto es buscar arquitecturas y sustratos en los que los robots no son conscientes.

Además, puede ser más eficiente para una superinteligencia auto-mejorable eliminar la conciencia. Piense en cómo funciona la conciencia en el caso humano. Sólo un pequeño porcentaje del procesamiento mental humano es accesible a la mente consciente. La conciencia se correlaciona con nuevas tareas de aprendizaje que requieren atención y concentración. Una superinteligencia poseería conocimientos de nivel experto en todos los ámbitos, con cálculos de disparos rápidos que abarcan vastas bases de datos que podrían incluir la Internet entera y finalmente abarcar toda una galaxia. Qué sería nuevo para él? Qué requeriría un enfoque lento y deliberativo? No habría dominado todo ya? Como un conductor experimentado en un camino familiar, podría confiar en el procesamiento inconsciente. La simple consideración de la eficiencia sugiere, deprimentemente, que los sistemas más inteligentes no serán conscientes. En las escalas cosmológicas, la conciencia puede ser un destello, un florecimiento momentáneo de la experiencia antes de que el universo vuelva a la inconsciencia [=mindlessness].

Si la gente sospecha que la AI no es consciente, es probable que vea la sugerencia de que la inteligencia tiende a ser posbiológica con consternación. Y aumenta nuestras preocupaciones existenciales. Por qué las máquinas no conscientes tienen el mismo valor que colocamos en la inteligencia biológica, que es consciente?

Pronto, los humanos ya no serán la medida de la inteligencia en la Tierra. Y quizás ya, en otras partes del cosmos, la AI superinteligente, no la vida biológica, ha alcanzado las mesetas intelectuales más altas. Pero tal vez la vida biológica es distintiva en otra experiencia significativa respecto de la conciencia. Por lo que sabemos, la AI requerirá un esfuerzo deliberado de ingeniería de una especie benevolente, buscando crear máquinas que sientan. Tal vez una especie benevolente verá la forma de crear sus propias AI mindchildren. O tal vez los humanos futuros se involucrarán en alguna ingeniería de la conciencia, y enviarán sensibilidad a las estrellas.

Susan Schneider es miembro del IEET y Profesora Asociada del Departamento de Filosofía de la University of Connecticut. Sus libros incluyen The Language of Thought: a New Direction, The Blackwell Companion to Consciousness (con Max Velmans), y Science Fiction and Philosophy.

Nota Traducción castellana de Andrés Salvador (Sujeta a revisión). Las notas entre corchetes son del traductor. 

Fuente Susan Schneider, It May Not Feel Like Anything To Be an Alien, ieet.org, Dec 18, 2016 - Trad. cast. de Andrés Salvador