Cargando...
El nombre también se usa para referirse al campo de la investigación científica que intenta acercarse a la creación de tales sistemas.
Aspectos teóricos de la inteligencia artificial
Debido a que la inteligencia artificial tuvo muchos padres, no hay un consenso para definir ese concepto; podemos decir que la inteligencia artificial se encarga de modelar la inteligencia humana en sistemas computacionales.
Puede decirse que la inteligencia artificial (IA) es una de las áreas más fascinantes y con más retos de las ciencias de la computación, en su área de ciencias cognoscitivas. Nació como mero estudio filosófico y razonístico de la inteligencia humana, mezclada con la inquietud del hombre de imitar la naturaleza circundante (como volar y nadar), hasta inclusive querer imitarse a sí mismo.
Sencillamente, la inteligencia artificial busca el imitar la inteligencia humana.
Obviamente no lo ha logrado todavía, al menos no completamente.
Las cuatro categorías Russell y Norving clasifican los conceptos de diversos autores.
En la primera categoría planteada por los expertos, "sistemas que piensan como humanos", se encuentra una definición realizada por Haugeland (1995) en la cual plantea la inteligencia artificial como "la interesante tarea de lograr que las computadoras piensen... máquinas con mente, en su amplio sentido literal".
En la segunda categoría, "sistemas que actúan como humanos", se puede encontrar la definición de Kurzweil (1990) de la inteligencia artificial como "el arte de crear máquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia".
La tercera categoría planteada es "sistemas que piensan racionalmente", dentro de la cual se encuentran definiciones como "el estudio de las facultades mentales mediante el uso de modelos computacionales", planteada por Charniak y McDermott en 1985.
Dentro de la última categoría, "sistemas que actúan racionalmente", se encuentra la definición de Schalkoff en 1990, que conceptualiza la inteligencia artificial como "un campo de estudio que se enfoca a la explicación y estimulación de la conducta inteligente en función de procesos computacionales".
Es justamente esta última categoría la que analizamos en el presente trabajo.
Emociones artificiales y razonamiento. Para David Casacuberta, metodológicamente hablando, la investigación en emociones desde la inteligencia artificial (IA) podría dividirse en dos áreas principales: - Un acercamiento pragmático, que busca básicamente simular ciertos aspectos de las emociones humanas para así facilitar la comunicación entre humanos y las interficies de los sistemas informáticos. Y un acercamiento teórico que parte de la premisa central de que las emociones juegan un papel cognitivo central que necesita implementarse en un sistema informático si realmente deseamos crear programas que consideremos inteligentes.
Para nuestro autor, las emociones artificiales serían transcendentales para la consecución de la inteligencia artificial.
"Para sustentar esta tesis nos centraremos en el análisis de dos de los problemas básicos de la inteligencia artificial teórica: Por un lado el bautizado por Daniel Dennet como problema del marco (Frame Problem) y por otro considerando cómo las emociones presentan un componente fenomenológico irreductible, analizaríamos el problema de los qualia, y la posibilidad de que un sistema artificial disponga de contenidos mentales subjetivos.
Los dos problemas están íntimamente relacionados y ambos apuntan a la tesis mencionada anteriormente: la emoción como condición de posibilidad de la inteligencia".
Nuestro autor señal que una vez establecida esta tesis, el resto del argumento seguirá el modelo teórico de la neurofenomenología para postular que las emociones artificiales en el caso de que sean realmente posibles requieren seres autónomos, capaces de generar sus propias metas y co-variar sus representaciones del entorno en función de la organización y necesidades específicas internas, postulando así la necesidad de una inteligencia artificial enactiva si realmente buscamos un desarrollo de la inteligencia artificial que, además de resultar tecnológicamete útil, sea también relevante en un contexto e investigación en ciencias cognitivas.
Por su parte, el filósofo E. J. Lowe afirma que la computación es claramente una de las capacidades cognitivas, tan útil que ha desarrollado máquinas que permiten disminuir la fuerza de su trabajo.
"Pero considerar las operaciones de tales máquinas como algo que proporcione un modelo de todas nuestras actividades cognitivas parece estar exagerando.
"Parece pasar por alto demasiadas facetas de nuestra vida mental que son inseparables de la cognición humana, como lo son las sensaciones y emociones, y dejar de lado los aspectos biológicos de nuestra naturaleza, que nos hacen criaturas con propósitos, criaturas que persiguen sus objetivos", afirma el autor.
Para Lowe, no podría decirse que una criatura sin objetivos razone, puesto que la razón apunta a la verdad o a la acción con éxito. Por lo que las máquinas hechas por los hombres no razonan, ya que no tendrían nada que perseguir o buscar. Por lo que sugiere un cierto escepticismo.
Para el investigador Eduardo Fernández Matamala, las máquinas no están hechas de estructuras bioquímicas como los mamíferos (humanos), por lo que el concepto de "sentir" debe de ser a la fuerza un poco diferente en un robot que en los humanos. Entonces, ¿qué es lo que buscamos cuando decimos que queremos que las máquinas "sientan"? ¿Qué sentido tiene dotarles de la capacidad de "entender" las emociones de los humanos y que ellos mismos sean capaces de darse cuenta de lo que sienten? Por lo menos a corto plazo, en un futuro inmediato, lo que se busca es tratar de mejorar su relación con las personas, flexibilizar la interacción y ofrecer una interfaz de usuario agradable, así como que puedan enfocar su atención hacia algún elemento o situación en concreto, y mejorar la toma de decisiones, acomodándose al contexto de cada momento. Por ejemplo, si un robot esta interactuando (hablando, diagnosticando alguna enfermedad a algún paciente ) con un humano, sería deseable que el robot pudiese captar el estado de ánimo de la persona en cada momento y actuar en consecuencia con lo que ha observado. El sistema tendría que ser capaz de modificar su comportamiento si capta que su interlocutor se siente contento o triste, emocionado o aburrido, relajado o tenso, alegre o enfadado
Si un robot está hablando con alguien y nota (mediante un gesto del humano, un tono de voz, un movimiento reflejo de la cara o cualquier otra técnica o combinación de técnicas) que dicha persona está alegre y él también "sintiese" la sensación de alegría, la conversación podría ser más amena y divertida si el robot cambiase automáticamente a un tono de voz más suave o amigable; o por el contrario, si aun estando la persona alegre, dijese algo que "ofendiese" al robot, este entraría en estado de "enfado" o "tristeza", pudiendo expresar su estado de ánimo a su interlocutor si así lo "desease" el robot.
De esta forma, la sensación de la persona que hable con la máquina sería más humana, con un sentimiento más cálido, no tan artificial.
Por el momento, con los avances tecnológicos de los que se disponen actualmente, no se puede hacer que una máquina "sienta" de la misma forma que lo hace un humano. Lo que sí se puede lograr es que el robot reconozca una serie de situaciones de la vida real y que responda a ellos según un modelo prefijado.
La presente investigación, que abarcó los trabajos de Casacuberta, Lowe y Fernández Matamala, pudo hallar un punto de comparación, que es la muestra de escepticismo que proponen nuestros autores acerca de la posibilidad de la capacidad de emocionarse de las máquinas con inteligencia artificial.
Mientras Lowe afirma que no se pueden introducir emociones o razonamiento en una máquina que no tiene objetivos por sí mismo, Fernández Matamala manifiesta que solo por el momento no se tiene esa capacidad.
Por su parte, Casacuberta expresa que se podría llegar a comprender no solamente la capacidad útil de las emociones en inteligencia artificial, sino que también ayudará y proporcionará bases para más investigaciones dentro del área de ciencias cognitivas.
Valoro personalmente el trabajo de los tres autores, aunque también me mantengo escéptico con respecto a la posición de algunos de ellos. Considero que dentro del campo psicológico, filosófico y tecnocientífico se está avanzando mucho, por lo que la capacidad de emocionarse en las máquinas podría dejar de ser un simple pensamiento de ciencia ficción para llegar a formar parte de la realidad del mundo circundante.
Manifiesto, sí, que el choque psicofilosófico dentro de nuestras sociedades causará estragos y hasta incertidumbre cuando las emociones artificiales puedan llegar a compararse con las emociones naturales del ser humano... quien creó a las primeras.
Bibliografía
- BONNET, Claude, HOC, Jean-Michel, TIBERGHIEN, Guy y otros autores. La inteligencia artificial y la automática, aportación a la psicología del conocimiento. Barcelona, ESPAÑA. Editorial HERBER. 1989.
- FUKUYAMA, Francis. El fin del hombre: consecuencias de la revolución biotecnológica. Barcelona, ESPAÑA. Sine Qua Non editorial. 2003.
- GARDNER, James. El universo inteligente: una auténtica revolución, la inteligencia propia del cosmos. Barcelona, ESPAÑA. Ma Non Troppo edicions. 2008.
- LOWE, E. J. Filosofía de la mente. Barcelona, ESPAÑA. Idea Book ediciones. 2000.
- SMITH, H. T. y GREEN, T. R. G. El hombre y los ordenadores inteligentes. Barcelona, ESPAÑA. Editorial Mitre. 1982.
- VÁZQUEZ, Marta. Psicología General, el comportamiento del ser humano. Asunción, PARAGUAY. Edición particular. 1998.
- III CONGRESO IBEROAMERICANO DE FILOSOFÍA DE LA CIENCIA Y LA TECNOLOGÍA. Libro de RESÚMENES. Buenos Aires, ARGENTINA. Edición digital. 2010.
Debido a que la inteligencia artificial tuvo muchos padres, no hay un consenso para definir ese concepto; podemos decir que la inteligencia artificial se encarga de modelar la inteligencia humana en sistemas computacionales.
Puede decirse que la inteligencia artificial (IA) es una de las áreas más fascinantes y con más retos de las ciencias de la computación, en su área de ciencias cognoscitivas. Nació como mero estudio filosófico y razonístico de la inteligencia humana, mezclada con la inquietud del hombre de imitar la naturaleza circundante (como volar y nadar), hasta inclusive querer imitarse a sí mismo.
Sencillamente, la inteligencia artificial busca el imitar la inteligencia humana.
Obviamente no lo ha logrado todavía, al menos no completamente.
Las cuatro categorías Russell y Norving clasifican los conceptos de diversos autores.
En la primera categoría planteada por los expertos, "sistemas que piensan como humanos", se encuentra una definición realizada por Haugeland (1995) en la cual plantea la inteligencia artificial como "la interesante tarea de lograr que las computadoras piensen... máquinas con mente, en su amplio sentido literal".
En la segunda categoría, "sistemas que actúan como humanos", se puede encontrar la definición de Kurzweil (1990) de la inteligencia artificial como "el arte de crear máquinas con capacidad de realizar funciones que realizadas por personas requieren de inteligencia".
La tercera categoría planteada es "sistemas que piensan racionalmente", dentro de la cual se encuentran definiciones como "el estudio de las facultades mentales mediante el uso de modelos computacionales", planteada por Charniak y McDermott en 1985.
Dentro de la última categoría, "sistemas que actúan racionalmente", se encuentra la definición de Schalkoff en 1990, que conceptualiza la inteligencia artificial como "un campo de estudio que se enfoca a la explicación y estimulación de la conducta inteligente en función de procesos computacionales".
Es justamente esta última categoría la que analizamos en el presente trabajo.
Emociones artificiales y razonamiento. Para David Casacuberta, metodológicamente hablando, la investigación en emociones desde la inteligencia artificial (IA) podría dividirse en dos áreas principales: - Un acercamiento pragmático, que busca básicamente simular ciertos aspectos de las emociones humanas para así facilitar la comunicación entre humanos y las interficies de los sistemas informáticos. Y un acercamiento teórico que parte de la premisa central de que las emociones juegan un papel cognitivo central que necesita implementarse en un sistema informático si realmente deseamos crear programas que consideremos inteligentes.
Para nuestro autor, las emociones artificiales serían transcendentales para la consecución de la inteligencia artificial.
"Para sustentar esta tesis nos centraremos en el análisis de dos de los problemas básicos de la inteligencia artificial teórica: Por un lado el bautizado por Daniel Dennet como problema del marco (Frame Problem) y por otro considerando cómo las emociones presentan un componente fenomenológico irreductible, analizaríamos el problema de los qualia, y la posibilidad de que un sistema artificial disponga de contenidos mentales subjetivos.
Los dos problemas están íntimamente relacionados y ambos apuntan a la tesis mencionada anteriormente: la emoción como condición de posibilidad de la inteligencia".
Nuestro autor señal que una vez establecida esta tesis, el resto del argumento seguirá el modelo teórico de la neurofenomenología para postular que las emociones artificiales en el caso de que sean realmente posibles requieren seres autónomos, capaces de generar sus propias metas y co-variar sus representaciones del entorno en función de la organización y necesidades específicas internas, postulando así la necesidad de una inteligencia artificial enactiva si realmente buscamos un desarrollo de la inteligencia artificial que, además de resultar tecnológicamete útil, sea también relevante en un contexto e investigación en ciencias cognitivas.
Por su parte, el filósofo E. J. Lowe afirma que la computación es claramente una de las capacidades cognitivas, tan útil que ha desarrollado máquinas que permiten disminuir la fuerza de su trabajo.
"Pero considerar las operaciones de tales máquinas como algo que proporcione un modelo de todas nuestras actividades cognitivas parece estar exagerando.
"Parece pasar por alto demasiadas facetas de nuestra vida mental que son inseparables de la cognición humana, como lo son las sensaciones y emociones, y dejar de lado los aspectos biológicos de nuestra naturaleza, que nos hacen criaturas con propósitos, criaturas que persiguen sus objetivos", afirma el autor.
Para Lowe, no podría decirse que una criatura sin objetivos razone, puesto que la razón apunta a la verdad o a la acción con éxito. Por lo que las máquinas hechas por los hombres no razonan, ya que no tendrían nada que perseguir o buscar. Por lo que sugiere un cierto escepticismo.
Para el investigador Eduardo Fernández Matamala, las máquinas no están hechas de estructuras bioquímicas como los mamíferos (humanos), por lo que el concepto de "sentir" debe de ser a la fuerza un poco diferente en un robot que en los humanos. Entonces, ¿qué es lo que buscamos cuando decimos que queremos que las máquinas "sientan"? ¿Qué sentido tiene dotarles de la capacidad de "entender" las emociones de los humanos y que ellos mismos sean capaces de darse cuenta de lo que sienten? Por lo menos a corto plazo, en un futuro inmediato, lo que se busca es tratar de mejorar su relación con las personas, flexibilizar la interacción y ofrecer una interfaz de usuario agradable, así como que puedan enfocar su atención hacia algún elemento o situación en concreto, y mejorar la toma de decisiones, acomodándose al contexto de cada momento. Por ejemplo, si un robot esta interactuando (hablando, diagnosticando alguna enfermedad a algún paciente ) con un humano, sería deseable que el robot pudiese captar el estado de ánimo de la persona en cada momento y actuar en consecuencia con lo que ha observado. El sistema tendría que ser capaz de modificar su comportamiento si capta que su interlocutor se siente contento o triste, emocionado o aburrido, relajado o tenso, alegre o enfadado
Si un robot está hablando con alguien y nota (mediante un gesto del humano, un tono de voz, un movimiento reflejo de la cara o cualquier otra técnica o combinación de técnicas) que dicha persona está alegre y él también "sintiese" la sensación de alegría, la conversación podría ser más amena y divertida si el robot cambiase automáticamente a un tono de voz más suave o amigable; o por el contrario, si aun estando la persona alegre, dijese algo que "ofendiese" al robot, este entraría en estado de "enfado" o "tristeza", pudiendo expresar su estado de ánimo a su interlocutor si así lo "desease" el robot.
De esta forma, la sensación de la persona que hable con la máquina sería más humana, con un sentimiento más cálido, no tan artificial.
Por el momento, con los avances tecnológicos de los que se disponen actualmente, no se puede hacer que una máquina "sienta" de la misma forma que lo hace un humano. Lo que sí se puede lograr es que el robot reconozca una serie de situaciones de la vida real y que responda a ellos según un modelo prefijado.
La presente investigación, que abarcó los trabajos de Casacuberta, Lowe y Fernández Matamala, pudo hallar un punto de comparación, que es la muestra de escepticismo que proponen nuestros autores acerca de la posibilidad de la capacidad de emocionarse de las máquinas con inteligencia artificial.
Mientras Lowe afirma que no se pueden introducir emociones o razonamiento en una máquina que no tiene objetivos por sí mismo, Fernández Matamala manifiesta que solo por el momento no se tiene esa capacidad.
Por su parte, Casacuberta expresa que se podría llegar a comprender no solamente la capacidad útil de las emociones en inteligencia artificial, sino que también ayudará y proporcionará bases para más investigaciones dentro del área de ciencias cognitivas.
Valoro personalmente el trabajo de los tres autores, aunque también me mantengo escéptico con respecto a la posición de algunos de ellos. Considero que dentro del campo psicológico, filosófico y tecnocientífico se está avanzando mucho, por lo que la capacidad de emocionarse en las máquinas podría dejar de ser un simple pensamiento de ciencia ficción para llegar a formar parte de la realidad del mundo circundante.
Manifiesto, sí, que el choque psicofilosófico dentro de nuestras sociedades causará estragos y hasta incertidumbre cuando las emociones artificiales puedan llegar a compararse con las emociones naturales del ser humano... quien creó a las primeras.
Bibliografía
- BONNET, Claude, HOC, Jean-Michel, TIBERGHIEN, Guy y otros autores. La inteligencia artificial y la automática, aportación a la psicología del conocimiento. Barcelona, ESPAÑA. Editorial HERBER. 1989.
- FUKUYAMA, Francis. El fin del hombre: consecuencias de la revolución biotecnológica. Barcelona, ESPAÑA. Sine Qua Non editorial. 2003.
- GARDNER, James. El universo inteligente: una auténtica revolución, la inteligencia propia del cosmos. Barcelona, ESPAÑA. Ma Non Troppo edicions. 2008.
- LOWE, E. J. Filosofía de la mente. Barcelona, ESPAÑA. Idea Book ediciones. 2000.
- SMITH, H. T. y GREEN, T. R. G. El hombre y los ordenadores inteligentes. Barcelona, ESPAÑA. Editorial Mitre. 1982.
- VÁZQUEZ, Marta. Psicología General, el comportamiento del ser humano. Asunción, PARAGUAY. Edición particular. 1998.
- III CONGRESO IBEROAMERICANO DE FILOSOFÍA DE LA CIENCIA Y LA TECNOLOGÍA. Libro de RESÚMENES. Buenos Aires, ARGENTINA. Edición digital. 2010.