lab.elmundo.es Open in urlscan Pro
34.90.247.117  Public Scan

URL: https://lab.elmundo.es/inteligencia-artificial/riesgos.html
Submission: On May 22 via manual from CR — Scanned from ES

Form analysis 0 forms found in the DOM

Text Content

With your consent, we and our partners use cookies or similar technologies to
store, access, and process personal data like your visit on this website. You
can withdraw your consent or object to data processing based on legitimate
interest at any time by clicking on "Learn more" or in our Cookie Policy on this
website.

We and our partners do the following data processing:Actively scan device
characteristics for identification, Apply market research to generate audience
insights, Compartir tus análisis de navegación y grupos de interés con terceros,
Create a personalised ads profile, Create a personalised content profile,
Develop and improve products, Enriquecer el perfil con información de terceros,
Measure ad performance, Measure content performance, Select basic ads, Select
personalised ads, Select personalised content, Storage and access to geolocation
information for targeted advertising purposes, Storage and access to geolocation
information to carry out marketing studies, Store and/or access information on a
device, Use precise geolocation data

View our partners
ConfigurationAccept


 * Intro
 * No es ciencia ficción
 * Entrevista
 * Ética
 * Trabajo
 * Medicina
 * Arte y creatividad
 * Podcast

Menu


"LA TECNOLOGÍA NO TIENE ÉTICA, PERO LA HUMANIDAD DEPENDE DE ELLA"_


REBECA YANKE @REBECAYANKE

 * 
 * 
 * 
 * 


EL MAYOR RETO PARA LA HUMANIDAD

Enero de 2017 en California (EEUU). En el inmaculado centro de conferencias de
la ciudad costera de Asilomar, más de un centenar de expertos en inteligencia
artificial (IA) de distintos lugares del globo están reunidos bajo una premisa
aparentemente sencilla: analizar e indexar de qué forma ésta es beneficiosa para
el ser humano. Los profesionales invitados -algunos de ellos desfilarán por éste
y otros reportajes-, que cubren áreas diversas, tienen tres días por delante
para debatir cómo ha de desarrollarse la IA, podría decirse que en el futuro.
Pero éste, más que nunca, es sinónimo de ya, aquí y ahora.

Porque hay algo en lo que convergen intelectuales divergentes alrededor del
mundo: la base sobre la que se asentará la inteligencia artificial, y también lo
que supondrá para la humanidad, se está gestando mientras usted lee este
especial. Lo afirma, por ejemplo, el futurista alemán Gerd Leonhard, autor de un
libro cuyo título no deja lugar a dudas: La tecnología contra la humanidad, el
choque entre el hombre y la máquina: "Hoy es el momento en que construimos
nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género
humano hasta el momento, la posibilidad de una especie de superhombre que se
convierte en Dios no tiene precedentes", sostiene.

> >_ "No podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero
> abiertos al progreso"

Leonhard se sitúa en el lado de la trinchera que defiende que la relación que
tenemos con la tecnología debe, por lo menos, pensarse. Pero no es un alarmista.
"Creo que a veces reaccionamos de forma exagerada ante los posibles peligros, y
no podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos
al progreso", argumenta. Pero es él también quien afirma que "el exponencial
desarrollo tecnológico, y su tremendo potencial, es una oportunidad que trae
consigo nuevas y tremendas responsabilidades", él quien sostiene que "la
avalancha de cambios tecnológicos puede reformar la esencia de la humanidad y
también todo aspecto de nuestro planeta", él quien cree que "la tecnología no es
lo que buscamos sino cómo lo buscamos".

Afirmaciones que le sitúan a años luz de, por ejemplo, Natasha Vita-More, una de
las líderes del transhumanismo, movimiento que defiende precisamente abrazar la
tecnología. Llamémoslo sinergia. O simbiosis. Al igual que Leonhard, esta
especialista en la deriva humano-tecnológica cree que 2018 es un año crucial en
lo que respecta a la IA. Aunque Vita-More, profesora en la Universidad de
Tecnología Avanzada (Arizona, EEUU) y autora del ensayo El lector
transhumanista, no cree que exista un debate de extremos entre humanistas
(Leonhard sería uno de ellos) y transhumanistas. "No hay polémica porque ambos
valoramos la conciencia humana. La única excepción es que nosotros apoyamos la
evolución humana y ellos su estancamiento". ¿Cómo saber, en mitad de la carrera
tecnológica, smartphone en mano, en qué vértice se encuentra uno? Atendiendo,
por ejemplo, a las preguntas que se hacían los expertos aquel fin de semana en
California.

¿Puedes distinguir si una obra es de un humano o una máquina?
EMPEZAR

"¿Cómo crear sistemas de inteligencia artificial potentes que hagan lo que
nosotros queremos, sin errores y sin ser hackeados? ¿Cómo conseguir prosperidad
a través de la automatización mientras se mantienen los recursos y los objetivos
de los seres humanos? ¿Cómo actualizar la legislación de la inteligencia
artificial para que sea más eficaz y más justa y tenga en cuenta sus riesgos?
¿Con qué valores debe alinearse la IA y cuál debería ser su estatus legal y
ético?".

Es precisamente el desarrollo legislativo -que respondería a cuestiones éticas-
uno de los asuntos que más preocupa ahora a quienes trabajan -piensan- la
inteligencia artificial; signo de que éste es el momento histórico en el que
verdaderamente los humanos ponemos a prueba nuestra esencia como tal. "La
tecnología no tiene ética, pero la humanidad depende de ella", apunta Leonhard.
"Sí", disiente Vita-More, "la tecnología sí tiene ética, es un producto pero
también un paso evolutivo o un proceso que permite repensarlo todo".

> >_ "Tenía la esperanza de que, por una vez, el marco legal y político
> estuviera preparado. Pero la tecnología evoluciona muy rápido"

En ello está, también, la UE. Unas semanas después del encuentro californiano,
el 27 de enero de 2017, tres eurodiputados presentaban a la Comisión Europea una
serie de "recomendaciones sobre normas de Derecho civil sobre robótica". Éstas
incluyen afirmaciones como que "existe la posibilidad de que, a largo plazo, la
inteligencia artificial llegue a superar la capacidad intelectual", que "el
potencial de empoderamiento que encierra el recurso a la robótica se ve matizado
por una serie de tensiones o posibles riesgos y que debe ser evaluado
detenidamente a la luz de la seguridad y la salud humanas; la libertad, la
integridad y la dignidad, la autodeterminación y la no discriminación, y la
protección de datos personales".

La ponente principal, la socialista luxemburguesa Mady Delvaux, Georg Meyer, de
la Comisión de transportes y turismo, y Michal Boni, de la Comisión de
libertades civiles, justicia y asuntos de interior pedían a la Comisión "que
estudie la posibilidad de designar a una agencia europea para la robótica y la
inteligencia artificial que proporcione los conocimientos técnicos, éticos y
normativos necesarios para apoyar la labor de los actores públicos pertinentes
(...) de garantizar una respuesta rápida, ética y fundada ante las nuevas
oportunidades y retos -sobre todo de carácter fronterizo- que plantea el
desarrollo tecnológico de la robótica".

Simulación de un sistema de reconocimiento de personas con inteligencia
artificial. | Foto: Reuters

¿Llega tarde la propuesta o justo a tiempo? Dice Delvaux, en correspondencia
electrónica con EL MUNDO, que "hace cuatro años, cuando se puso en marcha el
grupo de trabajo en el Parlamento Europeo, pensaban que el futuro era lejano".
"Tenía la esperanza de que, por una vez, el marco legal y político estuviera
preparado para semejante transición. Pero la tecnología evoluciona muy rápido y
me temo que nosotros somos lentos. Por ejemplo, los coches autónomos: creíamos
que estarían listo en décadas y ya están disponibles en el mercado, aunque no a
gran escala; los productos están testándose, los procesos legislativos
nacionales también... es nuestro deber rellenar los huecos legales, manejar los
riesgos y asegurar los beneficios de la tecnología", explica.

Pero hasta el pasado 25 de abril la UE no emitió ningún comunicado al respecto.
Y lo dicho entonces es, para Delvaux, "óptimo pero insuficiente". La Comisión
Europea propone una serie de medidas para incrementar las inversiones en IA,
tanto públicas como privadas, llegando a los 20.000 millones de euros de aquí a
2020. Delvaux no tenía muchas esperanzas de que la UE sacara adelante una
agencia especializada en IA y, cuando lo contaba, aún no había sucedido el
accidente del coche autónomo de Uber en el que falleció un ciudadano en Tempe,
Arizona. Justo donde da clase, en la Universidad de Tecnología Avanzada, la
transhumanista Vita-More.



"Es importante garantizar la compensación de las víctimas, incluso cuando la
autonomía de los sistemas no permita identificar a la persona responsable del
daño. También es esencial adaptar las reglas de protección de datos porque estas
tecnologías precisan mucha información y puede haber conflictos con la
intimidad. También estoy preocupada por las cuestiones éticas. Propusimos una
carta para los desarrolladores e ingenieros en nuestro informe. Los robots y la
inteligencia artificial son alucinantes pero deben permanecer a nuestro servicio
y respetar nuestros derechos; son una oportunidad y debemos decidir cómo
queremos que ésta conforme nuestro futuro", culmina Delvaux.

También menciona los accidentes relacionados con coches autónomos Hayden
Belfield desde el Centro para el estudio de los riesgos existenciales, un grupo
de investigación de la Universidad de Cambridge. Belfield compara, incluso, la
inteligencia artificial con dos momentos históricos de máxima trascendencia para
el género humano, "la invención del fuego y la energía nuclear". "Debemos ser
extremadamente cautelosos. Los riesgos fundamentales son tres: accidentes, malos
usos y carreras de armas. Los sistemas de inteligencia artificial en ocasiones
funcionan mal. Por ahora, los daños que pueden causar son limitados, aunque ya
ha habido accidentes fatales con coches autónomos. Pero a medida que los
sistemas se expandan, especialmente en asuntos de seguridad y áreas militares,
pueden ocasionar mucho más daño: drones que no funcionan bien, hackeos,
propaganda computacional... Cuanto más potente sea la tecnología, más daño puede
causar".

Belfield también es contundente acerca de los beneficios que aporta la IA. Al
igual que Leonhard y Vita-More, es decir, al igual que humanistas y
transhumanistas, destaca la importancia de la inteligencia artificial a la hora
de solucionar uno de los problemas que más lejano y cercano parece al mismo
tiempo para los seres humanos: "El cambio climático". Pero, sobre todo, y como
todos, insiste en la necesidad urgente de colaboración y cooperación. No es
casual que 100 expertos se reunieran hace un año en Asilomar para sentar las
bases de lo que ya está entre nosotros. La mayor urgencia, sostienen todos los
expertos, es que "desarrolladores de inteligencia artificial, legisladores,
gobiernos e instituciones trabajen al unísono". "Tenemos que ponernos a trabajar
duramente", insiste Belfield, "porque es la única manera de que los beneficios
sean grandes".

Pero hasta el término inteligencia artificial resulta "demasiado amplio y
demasiado vago", apunta John C. Havens, director ejecutivo de la asociación
norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que
ofrece información a empresas y particulares. Havens, habitual analista de
medios internacionales en relación a la tecnología, destaca también que "los
riesgos que trae consigo la IA no son responsabilidad de ésta ni de sus
desarrolladores". "Lo que sucede es que internet y el consentimiento de datos
evoluciona y, en este momento, ha de cambiar, o la identidad y la capacidad
emocional del ser humano variará, y entonces sí que los riesgos serán mayores",
prevé.

> >_ "Lo que sucede es que internet y el consentimiento de datos evoluciona y,
> en este momento, ha de cambiar"

Havens está especialmente preocupado por los datos personales que los humanos
cedemos cada vez que, visualícese, damos a aceptar al usar una app. "Los riesgos
están allí donde empleamos sistemas de inteligencia artificial. El primero de
ellos es cómo se están usando los datos de la gente para crear algoritmos que
construyen la inteligencia artificial. Si no firmas los consentimientos, no
tienes acceso a los servicios. Las sociedades deberían evolucionar hacia
sistemas que incluyan herramientas de control de datos, como sucede en Estonia,
donde los ciudadanos tienen acceso a la información de cuándo y cómo se emplean
sus datos", propone.

El éxito de la inteligencia artificial, dice Havens, vendría dado por tres
vertientes: "Personas, planeta y beneficios". "Se debe priorizar la equidad de
los ciudadanos, el planeta y los beneficios que se obtienen. Poniendo al menos
estos tres elementos en la balanza, la humanidad tendrá una oportunidad. De otra
manera, sucedería que los humanos no seríamos sostenibles. Las máquinas de
inteligencia artificial están destinadas a superarnos en toda habilidad y en
todo atributo". Y hay algo en lo que, según Francesca Rossi, responsable de
ética de IBM y presente en el encuentro de Asilomar, nos superan ampliamente:
"La ausencia de prejuicios". "La clave está en la complementariedad, esto es lo
que se debería explotar. Hay que conseguir que las máquinas hagan de nosotros
mejores seres humanos", reta.

Los objetivos están claros, pero no tanto las consecuencias. Se acuerda Leonhard
del filósofo alemán Martin Heidegger y uno de sus conceptos fundamentales, el
Dasein o ser ahí (Da, existencia, sein, ahí) y se pregunta: "¿Cuando la
inteligencia artificial gobierne la nube y exista un cerebro global, podrá éste
comprender el Dasein?". ¿Podrán las máquinas algún día entender lo que significa
ser humano? ¿Y cómo debe el género humano relacionarse con las máquinas, los
robots, cualquier dispositivo gobernado por una inteligencia artificial? Hasta
el momento, las reacciones son desmedidas. Por ejemplo, en octubre del año
pasado, durante la feria Arts Electonica Festival, celebrada en Austria, un
robot sexual llamado Samantha, creado por una empresa española, Synthea Amatus,
tuvo que ser retirado después de que los asistentes a la feria lo destrozaran de
tanto usarlo. "Se comportaban con ella como bárbaros. Se agolpaban para sobar
sus pechos, piernas y brazos. Le rompieron dos dedos", relató entonces al
digital británico Metro el creador de este robot sexual, el barcelonés Sergi
Santos.

Para John Havens, que es uno de los mejores analistas internacionales en lo que
a transformación digital se refiere, "cómo respondan los humanos a los sistemas
artificiales depende sólo de ellos". "Si creen que un robot o una máquina es
real, ésa es su verdad subjetiva. Lo importante es diseñar herramientas que
contengan la posibilidad del consentimiento sobre cómo queremos que entren en
nuestras vidas. El antropomorfismo, creer que un objeto es algo real, es algo
con lo que convivimos desde el inicio de los tiempos". Desde el Instituto para
el Futuro de la Vida, fundado por Jaan Tallinn, fundador de Skype, y responsable
del encuentro de Asilomar, culmina una de sus integrantes, Ariel Conn:
"Desconocemos los límites aún pero sí, hasta ahora, el ser humano ha podido
aprender a usar la tecnología, no hay por qué pensar que no lo conseguiremos
esta vez".




NICK BOSTROM: "PUEDE FACILITAR FORMAS MÁS EFICIENTES DE VIGILANCIA MASIVA"

Desde su despacho en la Universidad de Oxford (Reino Unido), el profesor de
Éticas Aplicadas y director del Instituto para el Futuro de la Humanidad, Nick
Bostrom, acostumbra a revolucionar el panorama intelectual de la inteligencia
artificial. Asegura en una de sus últimas investigaciones que ésta "se
convertirá en una superinteligencia en las próximas décadas o en el próximo
siglo". Es decir, cree que ha de desarrollarse -o ya se está desarrollando- "la
transición hacia la era de la máquina inteligente".

¿Cuál es la diferencia entre la inteligencia artificial y la superinteligencia
artificial? La superinteligencia o inteligencia general artificial será capaz de
hacer todo aquello que hace el cerebro humano, pero mucho mejor y mucho más
rápido. Los actuales sistemas, naturalmente, tienen limitaciones y realmente
sólo alcanzan a sustituir la inteligencia humana en áreas estrechamente
circunscritas. Al proceso que nos lleva a la inteligencia artificial general
usted lo llama "explosión inteligente". ¿Hemos llegado ya a esa explosión?
Realmente no. A menos que lo tomemos de forma amplia y digamos que empezó con la
invención de la ciencia, de la imprenta o del lenguaje escrito. Pero esto nos
haría olvidar lo importante, que frente a nosotros hay algo radical y
potencialmente discontinuo que podría dar forma a un futuro en la Tierra donde
se originase nueva vida inteligente. ¿Debería organizarse pronto un encuentro
global sobre la inteligencia artificial general? ¿Deberían los gobiernos, los
legisladores, las universidades y los desarrolladores de IA trabajar juntos? R.
Ya hay diversas conferencias y talleres alrededor del mundo, conversaciones
profundas entre las partes interesadas y los expertos. Sin embargo, creo que no
es el momento adecuado para ninguna acción reguladora dirigida específicamente a
la superinteligencia. Lo que sería útil es comenzar a construir normas en torno
a la perspectiva de la superinteligencia y que éstas se aborden de manera
cooperativa. Que se desarrolle para toda la Humanidad y al servicio de ideales
éticos compartidos, siguiendo el principio de bien común. ¿Puede la inteligencia
artificial contribuir a la democracia y a la libertad? A corto plazo, puede
contribuir al crecimiento económico a través de aplicaciones y en distintos
sectores de la economía, y esto puede, indirectamente, fortalecer la sociedad
civil. En función de cómo se use, y por quien, el aprendizaje de las máquinas
puede o bien mejorar o bien impedir el desarrollo democrático de distintas
maneras. Por ejemplo, permitiendo formas más eficientes de vigilancia masiva.


GERD LEONHARD: "DEBEMOS PROTEGER LOS ATRIBUTOS HUMANOS, COMO LOS ERRORES, LOS
MISTERIOS Y LAS INEFICIENCIAS"

Gerd Leonhard se dedicaba a la música. Hasta que ésta, como los libros y el
cine, entre otras muchas cosas, se convirtió en algo diferente tras la irrupción
de internet. Escribió en 2005 un libro sobre el futuro de la música y, desde
entonces, analiza, como conferenciante, lo que la tecnología hace con nosotros,
tesis que cristalizan en su reciente ensayo Tecnología versus humanidad, el
choque entre el hombre y la máquina.

¿A qué riesgos nos enfrentamos como seres humanos frente a la inteligencia
artificial? ¿Cuál es la batalla? Hay que distinguir primero entre asistentes
inteligentes e inteligencia artificial. En este momento, la mayoría de las
aplicaciones que calificamos de inteligencia artificial son sólo asistentes
inteligentes que aumentan y sirven a los humanos, como Google Maps, Google Lens,
Alexa... Puede que tengan un lenguaje avanzado y capacidad para el
reconocimiento de imágenes, basados en aprendizajes profundos, pero claramente
no son inteligentes. El coche autónomo tiene una inteligencia bastante menor,
pero es poderoso en sus dominios, aunque no pueda comprender a un niño de dos
años o jugar al ajedrez.

Cuando las máquinas tengan añadidas otras piezas inteligentes y se expandan,
cuando sean socialmente inteligentes, entiendan las emociones y se conecten unas
con otras, entonces, rápidamente serán infinitamente inteligentes, lo que supone
un riesgo para los seres humanos. La inteligencia artificial es asombrosa y
bastante disruptiva ya, sobre todo en el entorno laboral, pero a medida que nos
acerquemos a la inteligencia artificial general (IAG), mayor necesidad tendremos
de guías éticas y de seguridad, y de regulaciones similares a los tratados de
proliferación nuclear. ¿Cuáles son los límites que el género humano no debería
traspasar? Debemos mantener a los humanos siempre en control de la situación,
entender qué están haciendo las máquinas y controlarlas. No debería tentarnos la
posibilidad de ser superhombres instalando tecnología en nosotros, al menos no
más allá de ciertos límites, como las gafas de realidad virtual. También debemos
proteger los atributos humanos, como los errores, los misterios y las
ineficiencias; que no corran el riesgo de verse suprimidos por la tecnología. Se
está llegando a los límites cuando es complicado seguir siendo humano, como ha
pasado con Facebook, que ya se usa para la manipulación maledicente. Y las
máquinas, ¿deberían adaptarse a los humanos? Esto es un asunto ético y una
decisión política, no una cuestión tecnológica. Necesitamos definir qué queremos
ser y no qué podemos ser. Los beneficios de la inteligencia artificial son
muchos: resolver problemas energéticos, de desalinización del agua,
alimentarios... La inteligencia artificial hace que todo sea más rápido, más
eficiente y más fácil para los humanos pero, en compensación, las consecuencias
o efectos colaterales aumentan. ¿Cómo sobrevivirá entonces el ser humano? Sólo
si nos ponemos de acuerdo acerca de cómo usar la tecnología para el bien común,
y no únicamente para obtener beneficios y crecimiento. La inteligencia
artificial, la manipulación del genoma, la nanotecnología y la ingeniería
climática son las cuatro áreas de preocupación en las que puede darse una
carrera armamentística que podría derivar en una situación insalvable. Es
fundamental la colaboración global en todos estos asuntos tecnológicos que
avanzan de manera exponencial. Entonces, éste es el mayor desafío de la
Historia. Sí, éste es el mayor reto al que se ha enfrentado la humanidad hasta
ahora, la posibilidad de convertirse en un superhombre, casi un dios, no tiene
precedentes. Es verdad que a veces reaccionamos de manera exagerada a los
peligros potenciales. No podemos entrar en el futuro desde el miedo. Debemos ser
cautelosos pero abiertos al progreso. Cualquier tecnología poderosa precisa de
regulación para hacerla beneficiosa para todo el mundo y, por el momento, ni la
inteligencia artificial ni el big data tienen ninguna regulación. Es el momento
de ponernos de acuerdo sobre de qué y cómo debemos protegernos. Tecnología no es
lo que buscamos sino cómo buscamos. Si queremos un mejor futuro, democrático y
beneficioso, debemos colaborar más entre todos, porque la tecnología no es
creadora. No hay apps para conseguir democracia.


NATASHA VITA-MORE: "SOMOS HUMANOS EN TRANSICIÓN HACIA EL SIGUIENTE PASO DE LA
EVOLUCIÓN"

Es la presidenta de Humanity+, la organización internacional que defiende que,
en su evolución natural, el ser humano ha de converger con la tecnología. Es,
además, profesora en la Universidad de Tecnología Avanzada, en Tempe, Arizona
(EEUU), donde recientemente un coche autónomo mató accidentalmente a un
ciudadano.

¿De qué manera va a dibujar nuestro futuro la inteligencia artificial? Se va a
convertir en una inteligencia sensible y sapiente, lo que se conoce como
inteligencia artificial general (IAG), algo mucho más sofisticado que lo que
ahora llamamos inteligencia artificial, o la que ahora usamos. La IAG es una
superinteligencia y será capaz de programarse a sí misma. El ser humano ha sido
hasta ahora la forma más inteligente que la humanidad ha conocido, así que el
reto que hoy se encara es otra forma de inteligencia altamente superior en sus
habilidades en comparación con el cerebro humano. Esto es un desafío si su
programación no es ética o amable, pero también es una oportunidad porque sin la
IAG la humanidad no sobrevivirá. En algún momento seremos aniquilados por una
fuerza natural o por nuestra propia falta de inteligencia a la hora de
desarrollar una estrategia que resuelva nuestros problemas. Usted es una de las
líderes del movimiento transhumanista. ¿Existe un diálogo fructífero entre
ustedes y los humanistas? No existe un debate entre humanismo y transhumanismo
porque ambos valoramos la conciencia humana. La única excepción es que el
transhumanismo apoya el concepto de evolución humana y el humanismo, su
estancamiento. El conflicto y el debate existió entre el posmodernismo y el
transhumanismo en el reino de lo filosófico. El posmodernismo es antitecnológico
y el transhumanismo es protecnológico. Desde mi punto de vista, es necesaria una
mayor interacción, entender nuestros prejuicios y aprender que sin el
transhumanismo no existe ninguna forma educacional de ayudar a la gente a
entender cómo afectará la tecnología a nuestras vidas. Tampoco qué estrategias
son las mejores para trabajar con la IAG y otras tecnologías como la
nanotecnología, así como para mejorar nuestra situación y resolver muchos de los
problemas a los que nos enfrentamos como especie, y a los que se enfrenta
también el medio ambiente. ¿Somos ya algo distinto que seres humanos? Sí, muchas
personas están ya aumentadas, es decir, son algo más que humanos o no tan
humanos como nacieron, al menos. Son todos aquellos que llevan prótesis,
implantes o trasplantes u otros dispositivos como los teléfonos inteligentes.
¿Son transhumanos? Exactamente, humanos en transición hacia el siguiente paso de
la evolución, más allá de limitaciones biológicas como enfermedades,
envejecimiento y muerte. Aquellos que tienen prótesis en lugar de miembros,
prótesis diseñadas gracias a la robótica y a sistemas hápticos (táctiles) son
más que humanos. Aquellos que usan lentillas, implantes no biológicos o quienes
reciben terapias con células madre, terapias de reemplazo hormonal o están
genéticamente modificados son transhumanos. No son cyborgs, son transhumanos.
¿Tiene ética la tecnología? Sí porque permite avanzar, porque es un proceso a
través del cual repensarlo todo. Me preocupa que los asuntos éticos relacionados
con la inteligencia artificial no se estén enseñando en las universidades al
nivel que deberían. Cada universidad y cada instituto debería tener cursos en
transhumanismo. El transhumanismo es el único movimiento cultural y social que,
a día de hoy, entiende las cuestiones que nos rodean al nivel que deben ser
entendidas. La lógica detrás de todo esto es que los individuos -científicos,
tecnólogos, filósofos, economistas, etc.- son las mismas personas que
desarrollan las ideas sobre IA, nanotecnología y ética. ¿En qué puede hacernos
mejores la inteligencia artificial? Puede ordenar grandes cantidades de datos de
forma mucho más objetiva que un ser humano. Esto significa que la IA es un
sistema objetivo que reúne la información, la procesa y la categoriza de forma
mucho más precisa que un ser humano. En la actualidad nos enfrentamos a sistemas
democráticos y gobiernos en los que predominan los prejuicios que surgen de
morales individuales y que colocan esa moral por encima de la razón. La moral no
es ética. La ética debe ser objetiva y la moral es una creencia personal y éstas
ofuscan la razón. Las creencias son necesarias e importantes pero deben
aplicarse después de que la información se haya organizado objetivamente. La IA
es mejor que un humano a la hora de reunir datos, luego los humanos pueden
discutirlos, discernirlos y debatirlos, para finalmente seleccionar las mejores
alternativas, pero no somos buenos a la hora de recopilar información
objetivamente. ¿Cómo habría que proceder entonces? Lo que resulta crucial para
nuestro futuro es que aprendamos a interactuar con las máquinas, ser capaces de
emerger y evolucionar con ellas para poder sobrevivir. No se trata de parecerse
a las máquinas o actuar como ellas, como los cyborgs, sino de mantener nuestra
humanidad y ser aún más humanos como transhumanos. En la actualidad, el ser
humano, el homo sapiens, tiene una actitud de lucha o un comportamiento
beligerante que causa temor e ira desmedida. Hay que evitar la influencia de
este temor sobre nuestro sentido de la lógica y cómo reaccionamos ante lo que
nos rodea. Necesitamos más amabilidad. Considere cómo sería el mundo si las
personas no se juzgasen las unas a las otras sobre parcialidades infundadas. El
mundo sería un lugar mucho mejor si actuáramos más como los perros: amorosos,
cariñosos, divertidos, generosos... Es una metáfora simple, pero encierra mucha
verdad.


Coordinación: Virginia Hernández. Responsable EL MUNDO Lab: Sergio Rodríguez.

Redacción: Teresa Guerrero, Virginia Hernández, Miguel G. Corral, Carlos
Fresneda, Rebeca Yanke, Laura Tardón, Cristina G. Lucio, Mar de Miguel, Carmen
Valero e Isabel Munera.

Vídeos: Nacho Moreno. Locuciones: Maite Vaquero

Podcast: Virginia Hernández, Nacho Moreno, Maite Vaquero y Adrián Portellano.

Infografías: Isabel González.

Ilustración: Akirant | Ulises

Diseño y maquetación: Antonio Pedro Germán

© ELMUNDO.es Avenida de San Luis 25 - 28033 MADRID Una web de Unidad Editorial
Términos y condiciones de uso | Política de privacidad | Política de cookies |
Certificado por OJD | Contacto | Publicidad | Venta de contenidos