El término probabilidad tiene varios significados: históricamente procedente del latín probabilitas , designa lo contrario del concepto de certeza; es también una valoración de la probable naturaleza de un hecho , es decir, que un valor permite representar su grado de certeza; recientemente, la probabilidad se ha convertido en una ciencia matemática y se llama teoría de la probabilidad o, más simplemente, probabilidad ; finalmente, una doctrina también lleva el nombre de probabilismo .
La probabilidad de un evento es un número real entre 0 y 1. Cuanto mayor es el número, mayor es el riesgo o la probabilidad de que ocurra el evento. El estudio científico de la probabilidad es relativamente reciente en la historia de las matemáticas. El estudio de la probabilidad ha visto muchos avances desde el XVIII ° siglo a través del estudio de la aleatoriedad y la imprevisibilidad de ciertos fenómenos, especialmente los juegos de azar. Esto llevó a los matemáticos a desarrollar una teoría que luego tuvo implicaciones en campos tan variados como la meteorología , las finanzas o la química .
Originalmente, en las traducciones de Aristóteles , la palabra "probabilidad" no denotaba una cuantificación de la aleatoriedad de un hecho, sino la percepción de que una idea es comúnmente aceptada por todos. Sólo durante la Edad Media , luego el Renacimiento , en torno a los sucesivos comentarios e inexactitudes en la traducción de la obra de Aristóteles , este término experimentó un cambio semántico para acabar designando la plausibilidad de una idea.
La aparición del concepto de "riesgo" , antes del estudio de la probabilidad, sólo apareció en el XII ° siglo, para la evaluación de los contratos comerciales con el Tratado contratos Pedro Olivi , y S 'desarrollado en el XVI ° siglo, con el difusión de los contratos de seguros marítimos. Aparte de algunas consideraciones elementales por Gerolamo Cardano a principios del XVI ° siglo, y por Galileo a principios del XVII ° siglo, el verdadero comienzo de fechas teoría de la probabilidad de correspondencia entre Pierre de Fermat y Blaise Pascal en 1654.
Fue en la segunda mitad del XVII ° siglo, siguiendo el trabajo de Blaise Pascal , Pierre de Fermat y Christian Huygens sobre el problema de los puntos , el término "probabilidad" está tomando gradualmente su significado actual, con la evolución del tratamiento matemático de el tema de Jakob Bernoulli .
En el XVIII ° siglo, Gabriel Cramer dio un curso sobre la lógica probabilística que se convertirá en una base en el artículo probabilidad de la enciclopedia de Diderot , escrito al final de ese siglo. Esto es, mientras que en el XIX ° siglo que esta puede ser considerada la moderna teoría de la probabilidad matemática.
El cálculo de probabilidades toma un nuevo desarrollo a principios del XX E siglo, con el axioma de Kolmogorov ; luego comienza la teoría de la probabilidad . La probabilidad se convierte en ciencia y teoría, como rama de las matemáticas.
Así, existen varios conceptos que detallaremos en los siguientes apartados:
El primer uso de la palabra probabilidad aparece en 1370 con la traducción de la ética a Nicomaques de Aristóteles por Oresme , y luego designa "el carácter de lo probable". El concepto de probable en Aristóteles (ενδοξον, en griego) se define así en los Temas :
"Son probables las opiniones que reciben todos los hombres, o la mayoría de ellos, o los sabios, y entre estos últimos, ya sea por todos, o por la mayoría, o finalmente por los más notables e ilustres"
Lo que hace probable una opinión en Aristóteles es su carácter generalmente aceptado; es sólo la traducción de Cicerón en los temas de Aristóteles, lo que se traduce probabilis o verisimilis que el concepto de probabilidad se asocia con el de "probabilidad", lo que tendrá un impacto durante los Edad Media y del Renacimiento , con comentarios sucesivos la obra de Aristóteles .
Una oración, situación o proposición es verdadera o falsa. Su probabilidad es "conocimiento obvio de la verdad o falsedad de una proposición" . La noción de incertidumbre es por su parte el defecto de este conocimiento. Para una proposición, hay tres casos:
Esta representación desarrollada por Cramer permite revelar una forma de medir la noción de incertidumbre o probabilidad. Luego da la siguiente definición de probabilidad:
Definición (Gabriel Cramer) - Dado que la certeza total surge de la seguridad que uno tiene de la existencia de todas las condiciones requeridas para ciertas verdades, y la probabilidad del conocimiento que uno tiene de la existencia de alguna- Bajo una de estas condiciones, mire la certeza como un todo y la probabilidad como una parte. Por lo tanto, el grado correcto de probabilidad de una proposición se conocerá exactamente cuando podamos decir y demostrar que esta probabilidad se eleva a la mitad de la certeza o a las tres cuartas partes de la certeza total, o solo a un tercio de la certeza, etc.
Como se especificó anteriormente, la noción de probabilidad permite cuantificar el azar. La formalización de principios del XX ° siglo es ahora ampliamente utilizado. (por ejemplo, vea el libro de Jacod y Protter para esta sección)
La probabilidad de un cierto evento A , anotado , asocia un valor entre 0 y 1 de que ocurra el evento. Cuándo , se dice que el evento es casi seguro (o casi seguro), es decir, que tiene “todas las posibilidades” de ocurrir. Por el contrario , si se dice que A es insignificante (o casi imposible), es decir que tiene cero posibilidades de que ocurra.
La probabilidad de un evento A se puede obtener de manera frecuentista, en particular cuando es posible realizar un experimento varias veces y contar el número de éxitos del experimento. De hecho, si realizamos un experimento n veces de forma independiente y que en n A veces de los casos se realiza el evento A , entonces, la probabilidad de A viene dada por: . Más probabilísticamente, cuando el número de posibles resultados del experimento es finito y estos resultados son igualmente probables, la probabilidad de A se obtiene mediante: .
Matemáticamente, el evento A es un subconjunto de un conjunto Ω que representa todas las posibles eventualidades. Para obtener una teoría, Kolmogorov propuso axiomas : la probabilidad debe verificar:
Gracias a esta descripción, se pueden escribir varios conceptos de forma matemática.
Se dice que dos eventos son independientes si conocer la probabilidad del primer evento no nos ayuda a predecir la probabilidad del segundo y viceversa. Matemáticamente, esto se escribe: . Por ejemplo, la probabilidad de obtener un as en la primera tirada de dados y obtener un as en la segunda tirada de dados es la multiplicación de las dos probabilidades y es igual a 1/36.
Es posible considerar la probabilidad de un evento (denotarlo A ) condicional a otro ( denotar B ). Cuando los dos eventos no son independientes, el hecho de conocer la probabilidad de que uno influye en la probabilidad de la otra por la fórmula: . Por ejemplo, la probabilidad de obtener la suma de los dos dados igual a 12 cuando el primer dado es 6 es igual a 1/6.
Existen fórmulas para poder calcular cualquier tipo de probabilidad. Este es el caso de la fórmula de Poincaré , la ley de probabilidad total y el teorema de Bayes .
Animado por Pascal, Christian Huygens publicó De ratiociniis in ludo aleae (razonamiento sobre juegos de dados) en 1657. Este libro es el primer trabajo importante sobre probabilidad. Define la noción de esperanza y desarrolla varios problemas de distribución de ganancias durante los juegos o sorteos en las urnas. Cabe destacar también dos obras fundacionales: Ars Conjectandi de Jacques Bernoulli (póstuma, 1713) que define la noción de variable aleatoria y da la primera versión de la ley de los grandes números , y Teoría de la probabilidad de Abraham de Moivre (1718) que generaliza el uso de combinatoria .
La teoría de la probabilidad clásica sólo despega realmente con las nociones de medida y conjuntos mensurables que Émile Borel introdujo en 1897. Esta noción de medida es completada por Henri Léon Lebesgue y su teoría de la integración . La primera versión moderna del teorema del límite central la dio Alexander Liapunov en 1901 y la primera prueba del teorema moderno la dio Paul Lévy en 1910. En 1902, Andrei Markov introdujo las cadenas de Markov para emprender una generalización de la ley de los grandes números. para una serie de experiencias que dependen unas de otras. Estas cadenas de Markov conocerán muchas aplicaciones, entre otras para modelar la distribución o para indexar sitios web en Google.
No fue hasta 1933 que la teoría de la probabilidad surgió de un conjunto de varios métodos y ejemplos y se convirtió en una teoría real, axiomatizada por Kolmogorov .
Kiyoshi Itô plantea una teoría y un lema que lleva su nombre en la década de 1940. Estos permiten vincular el cálculo estocástico y las ecuaciones diferenciales parciales , haciendo así el vínculo entre análisis y probabilidades. El matemático Wolfgang Doeblin, por su parte, había esbozado una teoría similar antes de suicidarse tras la derrota de su batallón enJunio de 1940. Sus obras fueron enviadas a la Academia de Ciencias en un sobre cerrado que no se abrió hasta el año 2000.
AxiomáticoA principios del XX ° siglo Kolmogorov define axiomas matemáticos con el fin de investigar el accidente. Así construye el espacio de posibilidades, llamado universo , que contiene todas las posibilidades posibles, le proporciona un conjunto que contiene los subconjuntos del universo, llamado tribu , y con una medida de probabilidad que permite calcular la correspondiente probabilidades. El espacio así construido satisface los tres axiomas de probabilidades:
Para poder manejar mejor el azar, es conveniente utilizar una variable aleatoria . Puede ser real , pero también multidimensional o incluso más general. Esta variable real es, en teoría, una aplicación: que cada peligro , combina los resultados del experimento .
Esta variable tiene una distribución de sus valores dada por su ley de probabilidad , que es una medida. Este último se puede representar de muchas formas, siendo la más común mediante el uso de la función de distribución , la densidad de probabilidad (si existe) o la función de masa , si aplica. Se pueden estudiar muchas propiedades de las leyes de la probabilidad y, por tanto, de las variables aleatorias: expectativa , momentos , independencia entre varias variables, etc.
Teoremas de convergencia y límiteEs posible considerar un número infinito de variables aleatorias . En este caso, ¿hay un límite posible? Surge entonces la cuestión de la noción de convergencia aleatoria. Hay varios tipos de convergencias: convergencia en la ley que es la convergencia de la ley de la variable (como medida), convergencia en probabilidad , convergencia casi cierta o incluso convergencia en promedio .
Entonces existen muchos teoremas límite. Los más conocidos son: la ley de los grandes números que anuncia que el promedio de las primeras n variables aleatorias converge hacia el promedio teórico de la ley común de variables aleatorias; el teorema del límite central , que da la renormalización correcta de la suma de las variables aleatorias para tener un límite no trivial.
El cálculo estocástico es el estudio de fenómenos que evolucionan en el tiempo de forma aleatoria. El tiempo se puede modelar de forma discreta, es decir mediante los valores enteros :, en este caso el fenómeno está representado por una secuencia (infinita) de variables aleatorias : , es un paseo aleatorio . El tiempo también se puede modelar de forma continua, es decir, mediante valores reales o , entonces, es un proceso estocástico .
Entonces, varias propiedades se vinculan al cálculo estocástico: la propiedad de Markov anuncia que el movimiento futuro del fenómeno depende sólo del estado presente y no del movimiento pasado; la recurrencia y la fugacidad de una cadena de Markov aseguran el retorno o el pasaje único en un estado dado; una martingala es un proceso en el que el estado futuro está determinado en promedio por el estado actual, etc.
La doctrina de la probabilidad, también conocido probabilismo , es una teología moral católica que se desarrolló durante el XVI ° siglo, bajo la influencia, entre otros, Bartolomé de Medina y jesuitas . Con la aparición de la doctrina de la probabilidad, este término se verá un cambio semántico para designar el tiempo medio de la XVII ª siglo, el carácter probable de una idea.
La probabilidad de que un dictamen designa entonces el medio de la XVII ª siglo, es la probabilidad de que una verdadera opinión. No fue hasta el final de la XVII ª siglo, con la aparición de la probabilidad matemática, que la noción de probabilidad se referirá solamente más opiniones e ideas, sino también los hechos y se acercará a la noción de azar que conocemos hoy en día.
Al estudiar un fenómeno aleatorio, existen varias formas de abordar la noción de probabilidad relacionada con este fenómeno.
Entonces aparece una noción filosófica: dado que solo conocemos la naturaleza y el mundo que nos rodea a través de nuestra experiencia y nuestro punto de vista, solo lo conocemos subjetivamente y no podemos estimar con precisión las leyes objetivas que los gobiernan.
El IPCC utiliza un lenguaje natural calibrado para los resúmenes para los tomadores de decisiones de sus informes.
“Se han utilizado los siguientes calificadores para indicar la probabilidad evaluada de un resultado: casi seguro (99-100% de probabilidad), muy probable (90-100%), probable (66-100%), aproximadamente tan probable como no (33 al 66%), poco probable (del 0 al 33%), muy poco probable (del 0 al 10%), excepcionalmente improbable (del 0 al 1%). La probabilidad evaluada se indica en cursiva: por ejemplo, muy probable ... También se pueden usar otros calificadores cuando sea apropiado: extremadamente probable (95 a 100%), más probable que no (> 50 a 100%), más improbable que probable ( 0 a <50%) y extremadamente improbable (0 a 5%). Finalmente, este Informe también utiliza las expresiones “rango probable” y “rango muy probable”, lo que significa que la probabilidad evaluada de un resultado está en el rango de 17 a 83% o de 5 a 95%. "
El juego es la aplicación más natural de la probabilidad, pero hay muchas otras áreas que dependen de la probabilidad o la usan. Estos incluyen, entre otros:
Hay varias formas de abordar las probabilidades: el cálculo a priori y el cálculo a posteriori . (ver la sección de interpretación de probabilidades más arriba). El cálculo de las probabilidades a posteriori corresponde a una atribución de los valores de las probabilidades desconocidas gracias al teorema de Bayes .
Para estimar las probabilidades, se utilizan estimadores estadísticos con el fin de aproximar mejor la variable deseada. Un estimador es un valor calculado a partir de una muestra de la población total del estudio. Un estimador está bien elegido, es decir, dará una buena estimación de los valores buscados, si es un estimador insesgado y convergente; es decir, la media empírica se aproxima a la media teórica y el estimador converge a la variable aleatoria correcta a medida que aumenta el tamaño de la muestra. El método de máxima verosimilitud permite elegir un buen estimador.
Mediante estos métodos, es posible encontrar los parámetros desconocidos de una ley de probabilidad asociada con el fenómeno estudiado.
La revisión bayesiana es otro método para calcular probabilidades posteriores . Esto se hace gracias al teorema de Bayes : En esta fórmula, la hipótesis representa lo que suponemos a priori sobre el fenómeno aleatorio, la prueba es parte del fenómeno que conocemos y que podemos medir. El término se llama probabilidad . De esta forma, es posible medir la probabilidad a posteriori de la hipótesis que planteamos teniendo en cuenta la prueba .
Ejemplo 1La frecuencia empírica se utiliza para estimar las probabilidades. En una muestra de n individuos, basta con contar el número de veces que el individuo pertenece a la categoría A buscada. Al anotar este número entre los n sorteos, la frecuencia se acerca a la probabilidad deseada . A 400 lanzamientos de moneda, si aparece 198 veces la cara lateral , se deduce que la probabilidad de obtener la cara es de aprox . Este es un caso especial de la ley de los grandes números . 0.495 es el valor estimado de .
Ejemplo 2Se conoce una lista de valores , se supone que tiene una distribución normal cuya media m se conoce. La pregunta es encontrar la desviación estándar σ de la distribución normal. El estadístico T definido por es un estimador de σ , es decir, tiende a σ cuando n tiende a infinito.
Ejemplo 3Nos preguntamos cómo será el tiempo mañana, el pronóstico del tiempo proporciona información adicional. Se conocen algunos datos: la probabilidad de que la previsión del tiempo bien al saber que en realidad va a estar bien: la probabilidad de que la previsión del tiempo bien al saber que va a llover: .
Se elige una hipótesis: por ejemplo , es decir, consideramos, a priori , que hay una probabilidad entre dos de que mañana haga buen tiempo.
Entonces es posible calcular la probabilidad de que el pronóstico del tiempo anuncie buen tiempo: es decir que la previsión meteorológica anuncia buen tiempo en el 55% de los casos. La probabilidad de que mañana haga sol sabiendo que el pronóstico del tiempo ha anunciado buen tiempo viene dada por:
Entonces es posible revisar por segunda vez la suposición de que el tiempo estará bien mirando un segundo informe meteorológico de una fuente diferente. Entonces tomaríamos como nueva hipótesis la probabilidad recién calculada de tener buen tiempo.