La filosofía de la inteligencia artificial intenta responder preguntas como:
Estas tres preguntas reflejan los intereses divergentes de los investigadores de IA , los científicos cognitivos y los filósofos , respectivamente. Las respuestas científicas a estas preguntas están en discusión. Dependen de las definiciones de "inteligencia" y "conciencia", y qué "máquinas" son.
Las proposiciones importantes en la filosofía de la IA incluyen:
¿Es posible crear una máquina que pueda resolver todos los problemas que los humanos resuelven usando su inteligencia? Esta pregunta define el alcance de lo que las máquinas podrán hacer en el futuro y, por lo tanto, guía la dirección de la investigación de la IA. Se refiere únicamente al comportamiento de las máquinas e ignora cuestiones de interés para psicólogos , científicos cognitivos y filósofos ; Para responder a esta pregunta, no importa si una máquina realmente puede pensar (como piensa una persona) o no.
La posición básica de la mayoría de los investigadores de IA se resume en esta declaración, que apareció en la propuesta para las conferencias de Dartmouth de 1956:
Los argumentos en contra de este principio básico deben mostrar que la construcción de un sistema de inteligencia artificial que funcione es imposible, porque hay un límite práctico para las capacidades de las computadoras o porque hay alguna cualidad especial de la mente humana que es necesaria para pensar y que no puede ser duplicada por una máquina (o por los métodos actuales de investigación de IA). Los argumentos a favor de este principio básico deben demostrar que tal sistema es posible.
El primer paso para responder a la pregunta es definir claramente la "inteligencia".
Alan Turing , en un famoso artículo de 1950, reduce el problema de definir la inteligencia a una simple cuestión de conversación. Sugiere que si una máquina puede responder todas las preguntas que se le plantean, usando las mismas palabras que usaría una persona común, entonces podemos llamar a esa máquina inteligente. Una versión moderna de su diseño experimental usaría una sala de chat en línea , donde uno de los participantes es una persona real y uno de los participantes es un programa de computadora. El programa pasa la prueba si nadie puede decir cuál de los dos participantes es humano. Turing señala que nadie (excepto los filósofos) se hace jamás la pregunta "¿podemos pensar?" ". Escribe “en lugar de discutir una y otra vez sobre este punto, es habitual tener una convención educada en la que todo el mundo piensa” . La prueba de Turing amplía esta cortés convención de máquinas:
Una crítica a la prueba de Turing es que es explícitamente antropomórfica . Si nuestro objetivo es crear máquinas que sean más inteligentes que las personas, ¿por qué deberíamos insistir en que nuestras máquinas deben mirar de cerca a las personas? Russell y Norvig escriben que "los textos de ingeniería aeronáutica no definen el propósito de su campo como fabricar máquinas que vuelan tan exactamente como palomas que puedan engañar a otras palomas " .
Definición de agente inteligenteLa investigación reciente de IA define la inteligencia en términos de agentes inteligentes . Un "agente" es algo que percibe y actúa en un entorno. Una "medida de desempeño" define lo que cuenta como éxito para el agente.
Definiciones como esta intentan capturar la esencia de la inteligencia, pero tienen la desventaja de no distinguir entre "cosas que piensan" y "cosas que no son" de sentido común. Según esta definición, incluso un termostato tiene una inteligencia y una conciencia rudimentarias.
Hubert Dreyfus describe este argumento argumentando que "si el sistema nervioso obedece las leyes de la física y la química, y tenemos todas las razones para suponer que lo hace, entonces ... deberíamos ... ser capaces de reproducir el comportamiento de los nervios. sistema con un determinado dispositivo físico ". Este argumento, introducido ya en 1943 y descrito vívidamente por Hans Moravec en 1988, ahora se asocia con el futurista Ray Kurzweil , quien cree que el poder de la computadora será suficiente para una simulación de un cerebro completo para el año 2029. Una no -La simulación en tiempo real de un modelo talamocortical que es del tamaño del cerebro humano (10 11 neuronas) se realizó en 2005, y se necesitaron 50 días para simular 1 segundo de dinámica cerebral por un grupo de 27 procesadores.
Searle señala que, en principio, cualquier cosa puede ser simulada por una computadora; llevando así la definición a su punto de ruptura, y a la conclusión de que cualquier proceso puede técnicamente ser considerado un "cálculo". Así, contentarse con imitar el funcionamiento de un cerebro sería en sí mismo admitir ignorancia en cuanto a la inteligencia y la naturaleza de la mente.
El pensamiento humano es el procesamiento de símbolos.En 1963, Allen Newell y Herbert A. Simon propusieron que la "manipulación de símbolos" era la esencia de la inteligencia humana y artificial. Ellos escribieron :
Esta afirmación es muy fuerte: implica tanto que el pensamiento humano es una especie de manipulación de símbolos (porque un sistema de símbolos es necesario para la inteligencia) como que las máquinas pueden ser inteligentes (porque un sistema de símbolos es suficiente. Para la inteligencia). Otra versión de esta posición ha sido descrita por el filósofo Hubert Dreyfus, quien la llamó "la hipótesis psicológica":
Por lo general, se hace una distinción entre el tipo de símbolos de alto nivel que corresponden a objetos en el mundo, como <perro>, <perro> y <queue> o <queue>, y los "símbolos" más complejos que están presentes. una máquina, como una red neuronal . La primera investigación en IA, realizada por John Haugeland , se centró en este tipo de símbolos de alto nivel.
Argumentos en contra del procesamiento de símbolosEstos argumentos muestran que el pensamiento humano no consiste (solo) en la manipulación de símbolos de alto nivel. Ellos no muestran que la inteligencia artificial es imposible, sólo que se requiere más procesamiento símbolo.
Argumentos antimecanicistas de GödeliaEn 1931, Kurt Gödel demostró con su teorema de incompletitud que siempre es posible construir una “proposición de Gödel” en un sistema lógico formal dado (como un programa de manipulación de símbolos de alto nivel), que no puede demostrar. A pesar de ser una proposición verdadera, la proposición de Gödel es indemostrable en el sistema dado. Más especulativamente, Gödel conjeturó que la mente humana puede posiblemente determinar correctamente la verdad o falsedad de cualquier enunciado matemático bien fundado (Incluyendo cualquier proposición de Gödel), y que, por tanto, por , L la mente humana no puede ser reducido a un mecanismo. El filósofo John Lucas (desde 1961) y Roger Penrose (desde 1989) han defendido este argumento filosófico antimecanicista.
Dreyfus: la primacía de las habilidades inconscientesHubert Dreyfus argumentó que la inteligencia y la experiencia humanas dependían principalmente de los instintos inconscientes en lugar de la manipulación simbólica consciente, y argumentó que estas habilidades inconscientes nunca se incluirían en las reglas formales.
El argumento de Dreyfus había sido anticipado por Turing en su artículo de 1950 " Computing Machinery and Intelligence " Turing argumentó en respuesta que el hecho de que no conozcamos las reglas que gobiernan el comportamiento complejo, no significa que no existan tales reglas. Escribió: "No podemos convencernos tan fácilmente de la ausencia de leyes completas de comportamiento ... La única forma de encontrar tales leyes es la observación científica".
Ésta es una cuestión filosófica, relacionada con el problema de otras mentes y el difícil problema de la conciencia . La pregunta gira en torno a una posición definida por John Searle como "IA fuerte":
Searle distinguió esta posición de lo que llamó "IA débil":
Searle introdujo los términos para aislar la IA fuerte de la IA débil. Argumentó que incluso asumiendo que tenemos un programa de computadora que actúa exactamente como una mente humana, todavía habría una pregunta filosófica difícil de resolver.
Ninguna de las dos posiciones de Searle es de gran interés para la investigación de la IA, ya que no responden directamente a la pregunta "¿Puede una máquina exhibir inteligencia general?" (A menos que también pueda mostrar que la conciencia es necesaria para la inteligencia). Turing escribió: "No quiero dar la impresión de que creo que no hay ningún misterio sobre la conciencia ... pero no creo que estos misterios tengan que resolverse necesariamente antes de que podamos responder. La pregunta [si las máquinas pueden pensar ]. Russell y Norvig coinciden en que: "La mayoría de los investigadores de IA dan por sentada la hipótesis de IA débil y no se preocupan por la hipótesis de IA fuerte. ".
Hay algunos investigadores que creen que la conciencia es una parte esencial de la inteligencia, como Igor Aleksander , Stan Franklin , Ron Sun y Pentti Haikonen , aunque su definición de "conciencia" está muy cerca de "inteligencia" (ver conciencia artificial ). .
Antes de que podamos responder a esta pregunta, necesitamos saber qué entendemos por "mentes", "estados mentales" y "conciencia".
Las palabras " espíritu " y " conciencia " son utilizadas por diferentes comunidades de diferentes maneras. Los autores de ciencia ficción usan la palabra "conciencia" para describir una propiedad clave que nos hace humanos: una máquina o un extraterrestre que es "consciente" será presentado como un personaje completamente humano con intelecto, deseos, voluntad, intuición, orgullo, etc. Para otros, las palabras "espíritu" o "conciencia" se utilizan como una especie de sinónimo de alma.
Para los filósofos , neurocientíficos y científicos cognitivos , las palabras se usan de una manera más precisa y mundana: se refieren a lo familiar, a la experiencia cotidiana de tener un "pensamiento" en la cabeza ”, como una percepción, un sueño, una intención o un plan, o decir algo o comprender algo.
Los filósofos llaman a esto el difícil problema de la conciencia . Es la última versión de un problema clásico de la filosofía de la mente llamado " problema cuerpo-mente ". Un problema relacionado con esto es el problema del significado o la comprensión (que los filósofos llaman " intencionalidad "): ¿cuál es la conexión entre nuestros pensamientos y lo que pensamos ? Un tercer problema es el problema de la experiencia (o " fenomenología "): si dos personas ven lo mismo, ¿tienen la misma experiencia? ¿O hay cosas "dentro de sus cabezas" (llamadas " qualia ") que pueden ser diferentes de una persona a otra?
Los neurobiólogos piensan que todos estos problemas se resolverán cuando comencemos a identificar los correlatos neuronales de la conciencia : la relación real entre la maquinaria en nuestra cabeza y las propiedades colectivas como el espíritu, la experiencia y la comprensión. Algunos de los críticos más duros de la inteligencia artificial coinciden en que el cerebro es solo una máquina y que la conciencia y la inteligencia son el resultado de procesos físicos que se originan en el cerebro. La pregunta filosófica difícil es: ¿puede un programa de computadora, que se ejecuta en una máquina digital que mezcla los dígitos binarios "cero" y "uno", duplicar la capacidad de las neuronas para crear mentes, con estados mentales (como comprensión o percepción), y en última instancia, la experiencia de la conciencia?
La teoría computacional de la mente o " Computacionalismo " dice que la relación entre la mente y el cerebro es similar (si no idéntica) a la relación entre la ejecución de un programa actual y una computadora . Esta idea tiene raíces filosóficas de Hobbes , Leibniz , Hume e incluso Kant . La última versión de la teoría está asociada con los filósofos Hilary Putnam y Jerry Fodor.
Esta pregunta se relaciona con nuestras preguntas anteriores: si el cerebro humano es algún tipo de computadora, las computadoras pueden ser tanto inteligentes como conscientes, respondiendo a las preguntas prácticas y filosóficas de la IA. En términos de la pregunta práctica de la IA ("¿Puede una máquina exhibir inteligencia general?"), Algunas versiones del computacionalismo hacen la siguiente afirmación (como escribió Hobbes):
En otras palabras, nuestra inteligencia surge de una forma de cálculo, similar a la aritmética . Esta es la hipótesis del sistema de símbolos físicos discutida anteriormente, e implica que la inteligencia artificial es posible. La pregunta filosófica de la IA ("¿Puede una máquina tener mente, estados mentales y conciencia?"), La mayoría de las versiones del computacionalismo afirman que (como lo caracteriza Stevan Harnad ):
Alan Turing señaló que hay muchos argumentos de la forma "una máquina nunca hará X", donde X puede ser muchas cosas, como:
Sea amable, ingenioso, atractivo, amigable, muestre iniciativa, tenga sentido del humor, hable bien y mal, cometa errores, enamórese, disfrute de las fresas y la crema, haga que alguien se enamore, aprenda, use las palabras correctamente, ser objeto de su propio pensamiento, tener tanta diversidad de comportamiento como un hombre, hacer algo realmente nuevo.
Turing sostiene que estas objeciones a menudo se basan en suposiciones ingenuas y son "formas disfrazadas del argumento de la conciencia". Escribir un programa que exhiba cualquiera de estos comportamientos "no causará una gran impresión".
Si las " emociones " se definen sólo en términos de su efecto sobre el comportamiento o la forma en que funcionan dentro de un organismo , entonces las emociones pueden verse como un mecanismo que utiliza un agente inteligente para maximizar la utilidad de sus acciones. El miedo es una fuente de emergencia. La empatía es un componente necesario para una buena interacción hombre-máquina .
Sin embargo, las emociones también se pueden definir según su calidad subjetiva , cómo se siente una emoción. La cuestión de si la máquina realmente siente una emoción, o si simplemente actúa como si sintiera una emoción, es de hecho la cuestión filosófica: "¿Puede una máquina ser consciente?" en otra forma.
La "conciencia de sí mismo", como se señaló anteriormente, a veces es utilizada por los escritores de ciencia ficción como un personaje completamente humano que convierte a un ser humano en un ser humano. Alan Turing se ocupa de todas las demás propiedades de los seres humanos y se reduce a la siguiente pregunta "¿puede una máquina ser objeto de su propio pensamiento?" ¿Podemos pensar en nosotros mismos ? Visto de esta manera, es obvio que un programa puede dar cuenta de sus propios estados internos, como un depurador .
Turing reduce esto a la cuestión de si una máquina puede "tomarnos por sorpresa", y sostiene que esto es obviamente cierto, como puede atestiguar cualquier programador . Señala que con suficiente capacidad de almacenamiento, una computadora puede comportarse de una manera astronómica de diferentes formas. (El matemático Douglas Lenat , por ejemplo, combina ideas para descubrir nuevas verdades matemáticas).
Esta pregunta (como muchas otras en la filosofía de la inteligencia artificial) puede presentarse de dos formas. "Hostilidad" puede definirse como sinónimo de "peligroso". O puede definirse en términos de intención: ¿puede una máquina hacer daño "deliberadamente"?
La cuestión de si las máquinas altamente inteligentes y completamente autónomas serían peligrosas, ha sido examinada en detalle por futuristas (como el Singularity Institute ).
Vernor Vinge sugirió que en unos pocos años, las computadoras se convertirán repentinamente en miles, si no millones, de veces más inteligentes que los humanos. Lo llama " la singularidad ". Sugiere que puede ser un poco o muy peligroso para los humanos. Esta cuestión es examinada por una filosofía llamada Singularitarismo .
Algunos expertos han cuestionado el uso de robots en el combate militar, especialmente cuando se les da un cierto grado de autonomía. La Marina de los Estados Unidos financió un informe que dice que los robots militares se están volviendo más complejos.
El presidente de la Asociación para el Avance de la Inteligencia Artificial encargó un estudio para examinar esta cuestión. Una posible solución sería entonces crear programas como un dispositivo de adquisición del lenguaje que pudiera emular la interacción humana.
Algunos han sugerido la necesidad de construir una “IA agradable”, lo que significa que el progreso también deberá incluir un esfuerzo para hacer que la IA sea inherentemente amigable y humana.
Finalmente, aquellos que creen en la existencia de un alma pueden argumentar que "el pensamiento es una función del alma inmortal del hombre". Alan Turing lo llamó "la objeción teológica".
John McCarthy , quien creó el lenguaje de programación LISP para AI, y el concepto de AI en sí, dice que algunos filósofos de AI lucharán con la idea de que: