Ray Solomonoff

Ray Solomonoff Llave de datos
Nacimiento 25 de julio de 1926
Cleveland , Ohio ( Estados Unidos )
Muerte 7 de diciembre de 2009
Nacionalidad Estados Unidos
Profesión Científico informático , investigador
Familia
  • Phillip Julius Solomonoff (Padre),
  • Sarah Mashman (madre)

Complementos

Inventor de la probabilidad algorítmica

Ray J. Solomonoff , nacido el25 de julio de 1926en Cleveland , Ohio ( EE . UU. ) y murió el7 de diciembre de 2009de un aneurisma roto, es un científico e investigador informático estadounidense.

Se sabe que está en el origen del concepto de probabilidad algorítmica y los primeros enfoques del aprendizaje automático probabilístico en inteligencia artificial .

Biografía

Vida y obra hasta 1964

Ray Solomonoff nació el 25 de julio de 1926en Cleveland, Ohio , hijo de rusos inmigrantes judíos , Phillip Julius y Sarah mashman Solomonoff. Asistió a Glenville High School, donde se graduó en 1944. En 1944, se unió a la Marina de los Estados Unidos como instructor de electrónica. De 1947 a 1951, estudió en la Universidad de Chicago, con profesores como Rudolf Carnap y Enrico Fermi , y obtuvo una maestría ( MSc ) en física en 1951.

Desde muy joven, se sintió motivado por el placer de descubrir las matemáticas y por el deseo de explorar cuestiones que nadie había abordado antes. A la edad de 16 años, en 1942, comenzó a investigar un método general para resolver problemas matemáticos. Escribió tres artículos, incluidos dos con Anatol Rapoport , en 1950-1952, que se consideran el análisis estadístico de redes más antiguo.

En 1952 conoció a Marvin Minsky , John McCarthy y otros interesados ​​en la inteligencia artificial. En 1956, Minsky, McCarthy y otros fueron los anfitriones de la Conferencia de Dartmouth , donde Ray Solomonoff fue uno de los 10 mejores invitados; él, McCarthy y Minsky fueron los únicos que se quedaron durante toda la conferencia. Esta conferencia se considera a menudo como el nacimiento de la inteligencia artificial como ciencia autónoma. Las computadoras del día podían resolver problemas matemáticos muy específicos, pero no mucho más. Por su parte, Solomonoff se preguntó cómo hacer que las máquinas sean más inteligentes y cómo usar las probabilidades para ese propósito. Vio el aprendizaje automático como un método probabilístico, enfatizando la importancia de las secuencias de entrenamiento y el uso parcial de soluciones previas para resolver problemas de construcción de soluciones de prueba para nuevos problemas. Publicó una versión de sus hallazgos en 1957, que fueron los primeros en ofrecer un enfoque probabilístico del aprendizaje automático.

A finales de la década de 1950, inventó los lenguajes probabilísticos y sus gramáticas asociadas. Un lenguaje probabilístico asigna un valor de probabilidad a cada cadena posible. La generalización de este concepto le llevó a descubrir en 1960 la probabilidad algorítmica y la teoría general de la inferencia inductiva.

Antes de la década de 1960, el método dominante para calcular probabilidades era frecuentista (número de resultados favorables en comparación con el número total de ensayos). En su publicación de 1960, y más completamente en sus publicaciones de 1964, Solomonoff revisó seriamente esta definición de probabilidad. Llamó a esta nueva forma de probabilidad "probabilidad algorítmica" y mostró cómo utilizarla para la predicción en su teoría de la inferencia inductiva. Como parte de este trabajo, estableció la base filosófica para usar la regla de causalidad de Bayes para la predicción.

El teorema básico de lo que más tarde se llamó Complejidad de Kolmogorov fue parte de su Teoría General. En 1960 escribió: "Considere una secuencia muy larga de símbolos ... Consideraremos tal secuencia de símbolos como 'simple' y con una alta probabilidad a priori, si hay una descripción muy breve de esta secuencia, usando, por supuesto, , algún tipo de método de descripción estipulado. Más precisamente, si solo usamos los símbolos 0 y 1 para expresar nuestra descripción, asignaremos la probabilidad 2 - N a esta secuencia de símbolos si su descripción binaria más corta posible contiene N dígitos ”. Esta probabilidad está relacionada con una máquina de Turing universal particular. Solomonoff demostró en 1964 que la elección de la máquina, excepto por un factor constante, no modificó en gran medida las razones de probabilidad. Estas probabilidades son independientes de la máquina.

En 1965, el matemático ruso Kolmogorov descubrió y publicó de forma independiente ideas similares. Cuando se enteró del trabajo de Solomonoff, reconoció la anterioridad de su trabajo, y durante varios años el trabajo de Solomonoff fue más conocido en la Unión Soviética que en el mundo occidental. Sin embargo, el consenso general en la comunidad científica fue asociar este tipo de complejidad con Kolmogorov, que estaba más preocupado por la aleatoriedad de una secuencia. La probabilidad algorítmica y la inducción universal se asociaron con Solomonoff, quien se centró en la predicción, es decir, la extrapolación de una secuencia.

Más adelante, en la misma publicación de 1960, Solomonoff describe su extensión de la teoría del código más corto. Esto es Probabilidad algorítmica: "Parecería que si hay varios métodos diferentes para describir una secuencia, a cada uno de ellos se le debe dar un peso 'cierto' para determinar la probabilidad de esa secuencia". Luego muestra cómo esta idea puede usarse para generar la distribución de probabilidad previa universal y cómo permite el uso de la regla de Bayes en la inferencia inductiva. La inferencia inductiva, sumando las predicciones de todos los modelos que describen una secuencia en particular, usando pesos apropiados basados ​​en las longitudes de estos modelos, obtiene la distribución de probabilidad para la extensión de esa secuencia. Este método de pronóstico se conoce desde entonces como inducción de Solomonoff . Desarrolló su teoría mediante la publicación de varios informes que precedieron a las publicaciones en 1964. Los artículos de 1964 describieron la probabilidad algorítmica y la inducción de Solomonoff con más detalle, presentando cinco modelos diferentes, incluido el modelo posterior, más tarde llamado Distribución Universal.

Obras desde 1964 hasta 1984

D'autres scientifiques qui avaient assisté à la conférence d'été de Dartmouth en 1956 (tels que Newell et Simon ) développaient la branche de l'intelligence artificielle qui utilisait des machines régies par des règles de type « si-alors », basées sur hechos. Solomonoff estaba desarrollando la rama de la inteligencia artificial centrada en probabilidades y predicciones. Su visión específica de la inteligencia artificial describe máquinas gobernadas por una distribución de "probabilidad algorítmica". La máquina genera hipótesis junto con sus probabilidades asociadas para resolver problemas y, a medida que se desarrollan nuevos problemas y teorías, actualiza la distribución de probabilidad de las hipótesis. En 1968 encontró pruebas de la efectividad de la "probabilidad algorítmica", pero principalmente debido a una falta de interés general en ese momento, no la publicó hasta 10 años después. En su informe, publicó la prueba del teorema de convergencia.

Trabajar en los últimos años

Distinción recibida

Ver también

Artículos relacionados

Referencias

  1. " Un método exacto para el cálculo de la conectividad de redes aleatorias ", Boletín de biofísica matemática , Vol 14, p. 153, 1952.
  2. Solomonoff, RJ La escala de tiempo de la inteligencia artificial; Reflexiones sobre los efectos sociales, Gestión de sistemas humanos, Vol 5 1985, Pp 149-153
  3. Moor, J., Conferencia sobre inteligencia artificial de Dartmouth College: Los próximos cincuenta años, Revista AI, Vol 27, No. 4, Pp. 87-9, 2006
  4. Una máquina de inferencia inductiva ", Registro de la Convención IRE, sección sobre teoría de la información, parte 2, págs. 56-62. PDF
  5. " Un informe de progreso sobre las máquinas para aprender a traducir idiomas y recuperar información ", Avances en documentación y bibliotecología, Vol III, pt. 2, págs. 941–953. (Actas de una conferencia en septiembre de 1959.)
  6. "Un informe preliminar sobre una teoría general de la inferencia inductiva", 1960 p. 1
  7. "Un informe preliminar sobre una teoría general de la inferencia inductiva", 1960, p. 17
  8. "Sistemas de inducción basados ​​en la complejidad, comparaciones y teoremas de convergencia" IEEE Trans. sobre teoría de la información vol. IT-24, No. 4, págs. 422–432, julio de 1978. (versión pdf)
  9. (en) http://www.kolmogorov.clrc.rhul.ac.uk/pastwinners.html

enlaces externos