18 de Marzo de 2011

 

Acercamiento conceptual y discusión filosófica sobre emociones artificiales

Por Eduardo Quintana

Se define la inteligencia artificial como aquella inteligencia exhibida por artefactos creados por humanos (es decir, artificial). A menudo se aplica hipotéticamente a los computadores.

El nombre también se usa para referirse al campo de la investigación científica que intenta acercarse a la creación de tales sistemas. Aspectos teóricos de la inteligencia artificial  


Debido a que la inteligencia artificial tuvo muchos padres, no hay un consenso para   definir ese concepto; podemos decir que la inteligencia artificial se encarga   de modelar la inteligencia humana en sistemas computacionales.   

Puede decirse que la inteligencia artificial (IA) es una de las áreas más   fascinantes y con más retos de las ciencias de la computación, en su área de   ciencias cognoscitivas. Nació como mero estudio filosófico y razonístico de la   inteligencia humana, mezclada con la inquietud del hombre de imitar la naturaleza   circundante (como volar y nadar), hasta inclusive querer imitarse a sí mismo.   

Sencillamente, la inteligencia artificial busca el imitar la inteligencia humana.   

Obviamente no lo ha logrado todavía, al menos no completamente.   

Las cuatro categorías   Russell y Norving clasifican los conceptos de diversos autores.   

En la primera categoría planteada por los expertos, "sistemas que piensan como   humanos", se encuentra una definición realizada por Haugeland (1995) en la cual   plantea  la inteligencia artificial como "la interesante tarea de lograr que las   computadoras piensen... máquinas con mente, en su amplio sentido literal".   

En la segunda categoría, "sistemas que actúan como humanos", se puede   encontrar la definición de Kurzweil (1990) de la inteligencia artificial   como "el arte de crear máquinas con capacidad de realizar funciones que   realizadas por personas requieren de inteligencia".   

La tercera categoría planteada es "sistemas que piensan racionalmente",   dentro de la cual se encuentran definiciones como "el estudio de las facultades   mentales mediante el uso de modelos computacionales", planteada por Charniak y   McDermott en 1985.   

Dentro de la última categoría, "sistemas que actúan racionalmente", se encuentra   la definición de Schalkoff en 1990, que conceptualiza  la inteligencia artificial   como "un campo de estudio que se enfoca a la explicación y estimulación de la   conducta inteligente en función de procesos computacionales".   

Es justamente esta última categoría la que analizamos en el presente trabajo.   

Emociones artificiales y razonamiento. Para David Casacuberta, metodológicamente hablando, la investigación en   emociones desde la inteligencia artificial (IA) podría dividirse en dos áreas   principales:   - Un acercamiento pragmático, que busca básicamente simular ciertos aspectos   de las emociones humanas para así facilitar la comunicación entre humanos y las   interficies de los sistemas informáticos. Y   un acercamiento teórico que parte de la premisa central de que las emociones   juegan un papel cognitivo central que necesita implementarse en un sistema   informático si realmente deseamos crear programas que consideremos   inteligentes.   

Para nuestro autor, las emociones artificiales serían transcendentales para la   consecución de la inteligencia artificial.   

"Para sustentar esta tesis nos centraremos en el análisis de dos de los problemas   básicos de la inteligencia artificial teórica: Por un lado el bautizado por Daniel   Dennet como ‘problema del marco’ (Frame Problem) y por otro considerando   cómo las emociones presentan un componente fenomenológico irreductible,   analizaríamos el problema de los  qualia, y la posibilidad de que un sistema   artificial disponga de contenidos mentales subjetivos.   

Los dos problemas están íntimamente relacionados y ambos apuntan a la tesis   mencionada anteriormente: la emoción como condición de posibilidad de la   inteligencia".   

Nuestro autor señal que una vez establecida esta tesis, el resto del argumento   seguirá el modelo teórico de la neurofenomenología para postular que las   emociones artificiales —en el caso de que sean realmente posibles— requieren   seres autónomos, capaces de generar sus propias metas y co-variar sus   representaciones del entorno en función de la organización y necesidades   específicas internas, postulando así la necesidad de una inteligencia artificial   enactiva si realmente buscamos un desarrollo de la inteligencia artificial que,   además de resultar tecnológicamete útil, sea también relevante en un contexto e   investigación en ciencias cognitivas.   

Por su parte, el filósofo E. J. Lowe afirma que la computación es claramente una   de las capacidades cognitivas, tan útil que ha desarrollado máquinas que permiten   disminuir la fuerza de su trabajo.   

"Pero considerar las operaciones de tales máquinas como algo que proporcione   un modelo de todas nuestras actividades cognitivas parece estar exagerando.   

"Parece pasar por alto demasiadas facetas de nuestra vida mental que son   inseparables de la cognición humana, como lo son las sensaciones y emociones,   y dejar de lado los aspectos biológicos de nuestra naturaleza, que nos hacen   criaturas con propósitos, criaturas que persiguen sus objetivos", afirma el autor.   

Para Lowe, no podría decirse que una criatura sin objetivos razone, puesto que la   razón apunta a la verdad o a la acción con éxito. Por lo que las máquinas hechas   por los hombres no razonan, ya que no tendrían nada que perseguir o buscar. Por   lo que sugiere un cierto escepticismo.   

Para el investigador Eduardo Fernández Matamala, las máquinas no están   hechas de estructuras bioquímicas como los mamíferos (humanos), por lo que el   concepto de "sentir" debe de ser a la fuerza un poco diferente en un robot que en   los humanos. Entonces, ¿qué es lo que buscamos cuando decimos que queremos que las máquinas "sientan"? ¿Qué sentido tiene dotarles de la capacidad de "entender" las emociones de los humanos y que ellos mismos sean capaces de darse cuenta de lo que sienten? Por lo menos a corto plazo, en un futuro inmediato, lo que se busca es tratar de mejorar su relación con las personas, flexibilizar la interacción y ofrecer una interfaz de usuario agradable, así como que puedan enfocar su atención hacia algún elemento o situación en concreto, y mejorar la toma de decisiones, acomodándose al contexto de cada momento. Por ejemplo, si un robot esta interactuando (hablando, diagnosticando alguna enfermedad a algún paciente…) con un humano, sería deseable que el robot pudiese captar el estado de ánimo de la persona en cada momento y actuar en consecuencia con lo que ha observado. El sistema tendría que ser capaz de modificar su comportamiento si capta que su interlocutor se siente contento o triste, emocionado o aburrido, relajado o tenso, alegre o enfadado…   

Si un robot está hablando con alguien y nota (mediante un gesto del humano, un tono de voz, un movimiento reflejo de la cara o cualquier otra técnica o combinación de técnicas) que dicha persona está alegre y él también "sintiese" la sensación de alegría, la conversación podría ser más amena y divertida si el robot cambiase automáticamente a un tono de voz más suave o amigable; o por el contrario, si aun estando la persona alegre, dijese algo que "ofendiese" al robot, este entraría en estado de "enfado" o "tristeza", pudiendo expresar su estado de ánimo a su interlocutor si así lo "desease" el robot.   

De esta forma, la sensación de la persona que hable con la máquina sería más humana, con un sentimiento más cálido, no tan artificial.   

Por el momento, con los avances tecnológicos de los que se disponen actualmente, no se puede hacer que una máquina "sienta" de la misma forma que lo hace un humano. Lo que sí se puede lograr es que el robot reconozca una serie de situaciones de la vida real y que responda a ellos según un modelo prefijado.   

La presente investigación, que abarcó los trabajos de Casacuberta, Lowe y Fernández Matamala, pudo hallar un punto de comparación, que es la muestra de escepticismo que proponen nuestros autores acerca de la posibilidad de la capacidad de emocionarse de las máquinas con inteligencia artificial.   

Mientras Lowe afirma que no se pueden introducir emociones o razonamiento en una máquina que no tiene objetivos por sí mismo, Fernández Matamala manifiesta que solo por el momento no se tiene esa capacidad.   

Por su parte, Casacuberta expresa que se podría llegar a comprender no solamente la capacidad útil de las emociones en inteligencia artificial, sino que también ayudará y proporcionará bases para más investigaciones dentro del área de ciencias cognitivas.   

Valoro personalmente el trabajo de los tres autores, aunque también me mantengo escéptico con respecto a la posición de algunos de ellos. Considero que dentro del campo psicológico, filosófico y tecnocientífico se está avanzando mucho, por lo que la capacidad de emocionarse en las máquinas podría dejar de ser un simple pensamiento de ciencia ficción para llegar a formar parte de la realidad del mundo circundante.   

Manifiesto, sí, que el choque psicofilosófico dentro de nuestras sociedades causará estragos y hasta incertidumbre cuando las emociones artificiales puedan llegar a compararse con las emociones naturales del ser humano... quien creó a las primeras.   
  
Bibliografía

- BONNET, Claude, HOC, Jean-Michel, TIBERGHIEN, Guy y otros autores. La inteligencia artificial y la automática, aportación a la psicología del conocimiento. Barcelona, ESPAÑA. Editorial HERBER. 1989.   

- FUKUYAMA, Francis. El fin del hombre: consecuencias de la revolución biotecnológica. Barcelona, ESPAÑA. Sine Qua Non editorial. 2003.   

- GARDNER, James. El universo inteligente: una auténtica revolución, la inteligencia propia del cosmos.     Barcelona, ESPAÑA. Ma Non Troppo edicions. 2008.   

- LOWE, E. J. Filosofía de la mente. Barcelona, ESPAÑA.  Idea Book ediciones. 2000.   

- SMITH, H. T. y GREEN, T. R. G. El hombre y los ordenadores inteligentes. Barcelona, ESPAÑA. Editorial Mitre. 1982.   
  
- VÁZQUEZ, Marta. Psicología General, el comportamiento del ser humano. Asunción, PARAGUAY. Edición particular. 1998.   

- III CONGRESO IBEROAMERICANO DE FILOSOFÍA DE LA CIENCIA Y LA TECNOLOGÍA. Libro de RESÚMENES. Buenos Aires, ARGENTINA. Edición digital. 2010.
  • ¿Querés recibir las noticias nacionales e internacionales más importantes?
    Enviá ABC al 22292 desde tu Tigo, Personal o Vox.

COMENTARIOS

Inicie Sesión o Regístrese para comentar.

- ABC Digital no se hace responsable por los comentarios generados o publicados por lectores.
- Los usuarios que utilicen datos falsos en los registros de ABC Digital serán bloqueados.
- Se anularán las cuentas de personas que utilizan este sitio para ofender, insultar, agraviar o publicar groserías. Los comentarios considerados inapropiados serán borrados.
- Los usuarios con más de tres reportes de abuso serán dados de baja.

 

Reportar error

Reportar comentario

Enviar a un amigo

 

Estimado lector

Esta funcionalidad estará disponible a partir del lanzamiento oficial del nuevo sitio de ABC Color.
Gracias por su comprensión.

Reloj animado Estimado lector, la página se refrescará en Cancelar