domingo, 9 de agosto de 2009

TECNICAS DE CONTEO

Si el número de posibles resultados de un experimento es pequeño, es relativamente fácil listar y contar todos los posibles resultados. Al tirar un dado, por ejemplo, hay seis posibles resultados.
Si, sin embargo, hay un gran número de posibles resultados tales como el número de niños y niñas por familias con cinco hijos, sería tedioso listar y contar todas las posibilidades.
Las posibilidades serían, 5 niños, 4 niños y 1 niña, 3 niños y 2 niñas, 2 niños y 3 niñas, etc. Para facilitar el conteo examinaremos tres técnicas: La técnica de la multiplicación, la técnica de la permutación, y la técnica de la combinación.

La Técnica de la Multiplicación
La técnica de la multiplicación: Si hay m formas de hacer una cosa y hay n formas de hacer otra cosa, hay m x n formas da hacer ambas cosas
En términos de fórmula
Número total de arreglos = m x n
Esto puede ser extendido a más de dos eventos. Para tres eventos, m, n, y o:
Número total de arreglos = m x n x o
Ejemplo:
Un vendedor de autos quiere presentar a sus clientes todas las diferentes opciones con que cuenta: auto convertible, auto de 2 puertas y auto de 4 puertas, cualquiera de ellos con rines deportivos o estándar. ¿Cuántos diferentes arreglos de autos y rines puede ofrecer el vendedor?
Para solucionar el problema podemos emplear la técnica de la multiplicación, (donde m es número de modelos y n es el número de tipos de rin).
Número total de arreglos = 3 x 2
No fue difícil de listar y contar todos los posibles arreglos de modelos de autos y rines en este ejemplo. Suponga, sin embargo, que el vendedor tiene para ofrecer ocho modelos de auto y seis tipos de rines. Sería tedioso hacer un dibujo con todas las posibilidades. Aplicando la técnica de la multiplicación fácilmente realizamos el cálculo:
Número total de arreglos = m x n = 8 x 6 = 48

La Técnica de la Permutación
Como vimos anteriormente la técnica de la multiplicación es aplicada para encontrar el número posible de arreglos para dos o más grupos. La técnica de la permutación es aplicada para encontrar el número posible de arreglos donde hay solo u grupo de objetos. Como ilustración analizaremos el siguiente problema: Tres componentes electrónicos - un transistor, un capacitor, y un diodo - serán ensamblados en una tablilla de una televisión. Los componentes pueden ser ensamblados en cualquier orden. ¿De cuantas diferentes maneras pueden ser ensamblados los tres componentes?
Las diferentes maneras de ensamblar los componentes son llamadas permutaciones, y son las siguientes: T D C D T C C D T T C D D C T C T D
Permutación: Todos los arreglos de r objetos seleccionados de n objetos posibles
La fórmula empleada para contar el número total de diferentes permutaciones es:
n P r = n!
(n – r )!
Donde:
nPr es el número de permutaciones posible n es el número total de objetos r es el número de objetos utilizados en un mismo momento
n P r = n! = 3! = 3 x 2 = 6
(n – r )! ( 3 – 3 )! 1
Ejemplo:
Suponga que hay ocho tipos de computadora pero solo tres espacios disponibles para exhibirlas en la tienda de computadoras. ¿De cuantas maneras diferentes pueden ser arregladas las 8 máquinas en los tres espacios disponibles?
n P r = n! = 8! = 8! = 336
(n – r )! ( 8 – 3 )! 5!
En el análisis anterior los arreglos no presentan repeticiones, es decir, no hay dos espacios disponibles con el mismo tipo de computadora. Si en los arreglos se permite la repetición, la fórmula de permutaciones es la siguiente:
n Pr = nr
Para ilustrar el punto, queremos saber ¿cuántas series de 2 letras se pueden formar con las letras A, B, C, si se permite la repetición? Las permutaciones son las siguientes:
AA, AB, AC, BA, CA, BB, BC, CB, CC
Usando la fórmula:
n Pr = nr = 3P2 = 32 = 9

La Técnica de la Combinación
En una permutación, el orden de los objetos de cada posible resultado es diferente. Si el orden de los objetos no es importante, cada uno de estos resultados se denomina combinación. Por ejemplo, si se quiere formar un equipo de trabajo formado por 2 personas seleccionadas de un grupo de tres (A, B y C). Si en el equipo hay dos funciones diferentes, entonces si importa el orden, los resultados serán permutaciones. Por el contrario si en el equipo no hay funciones definidas, entonces no importa el orden y los resultados serán combinaciones. Los resultados en ambos casos son los siguientes:
Permutaciones: AB, AC, BA, CA, BC, CB
Combinaciones: AB, AC, BC
Combinaciones: Es el número de formas de seleccionar r objetos de un grupo de n objetos sin importar el orden.
La fórmula de combinaciones es:
n C r = n!
r! (n – r )!
Ejemplo: En una compañía se quiere establecer un código de colores para identificar cada una de las 42 partes de un producto. Se quiere marcar con 3 colores de un total de 7 cada una de las partes, de tal suerte que cada una tenga una combinación de 3 colores diferentes. ¿Será adecuado este código de colores para identificar las 42 partes del producto?
Usando la fórmula de combinaciones:
n C r = n! = 7! = 7! = 35
r! (n – r )! 3! ( 7 – 3 )! 3! 4!
El tomar tres colores de 7 posibles no es suficiente para identificar las 42 partes del producto.
Problemas
1.- Juanita invito a sus amigos a cenar. Juanita tiene 10 amigos, pero solo tiene 6 lugares en la mesa. a) ¿De cuantas maneras los puede sentar a la mesa?, si no le importa como queden acomodados. b) ¿De cuantas maneras los puede sentar a la mesa?, si le importa como queden acomodados. c) Dos de sus amigos son un feliz matrimonio, Juanita decidió sentarlos a la mesa juntos. ¿De cuantas maneras los puede sentar a la mesa?, si no le importa como queden acomodados los demás. d) ¿De cuantas maneras los puede sentar a la mesa?, si le importa como queden acomodados los demás. e) Dos de sus amigos son enemigos, Juanita no los quiere sentar juntos a la mesa. ¿De cuantas maneras los puede sentar a la mesa?, si no le importa como queden acomodados los demás. f) ¿De cuantas maneras los puede sentar a la mesa?, si le importa como queden acomodados los demás. g) Los amigos de Juanita son 4 mujeres y 6 hombres. Juanita quiere que siempre haya 2 mujeres sentadas a la mesa. ¿De cuantas maneras los puede sentar a la mesa?, si no le importa como queden acomodados. h) ¿Cuál es la probabilidad, si los selecciona al azar, de queden sentados a la mesa puros hombres? i) ¿Cuál es la probabilidad, si selecciona al azar 3 hombres y 3 mujeres, y asigna los lugares al azar también, queden sentados intercalados hombres y mujeres?

TIPOS DE PROBABILIDAD

Probabilidad Condicional
Si y son dos eventos en , la probabilidad de que ocurra dado que ocurrió el evento es la probabilidad condicional de dado , y se denota .
La probabilidad condicional por definición es:
, dado 0$" type="#_x0000_t75" o:spid="_x0000_i1099"> 0$" src="file:///C:\Users\USUARI~1\AppData\Local\Temp\msohtmlclip1\01\clip_image006.gif">
Ejemplo:
Para un dado, si sé que cayó impar, cuál es la probabilidad de 3?
Similarmente:
De donde:
Esta expresión se conoce como el Teorema de Bayes, que en su forma más general es:
El denominador se le conoce como el teorema de la probabilidad total.
Teorema 4:
Si representan una partición (exclusivos, exhaustivos y mayores a cero) de , y es un evento respecto a , entonces la probabilidad de la podemos escribir como:
Eventos independientes
Dos eventos, y , son independientes si la ocurrencia de uno no tiene que ver con la ocurrencia de otro.
Por definición, es independiente de si y sólo si:
Esto implica que:
Independientes es diferente a mutuamente exclusivos.
Independencia condicional
Un evento es condicionalmente independiente de otro dado un tercer evento , si el conocer hace que y sean independientes. Es decir, si conozco , no tiene influencia en . Esto es:
Ejemplo:
A - regar el jardín
B - predicción del clima
C - lluvia
De la definicíon de probabilidad condicional, podemos obtener una expresíon para evaluar la probabilidad conjunta de eventos:

Variables Aleatorias
Si a cada posible evento le asignamos un valor numérico real, , obtenemos una variable aleatoria. A cada valor de la variable le corresponde una probabilidad, .
Las variables aleatorias pueden ser de dos tipos: discretas y continuas. Nosotros nos enfocaremos a variables discretas.
Ejemplos de variables aleatorias discretas: lanzar una moneda, lanzar un dado, número de fallas antes de darle al blanco.
Función acumulativa de probabilidad
Para una variable aleatoria , se define la función acumulativa de probabilidad como la probabilidad de que la variable aleatoria sea menor a un valor :
Es decir, corresponde a la sumatoria de la función de probabilidad de a :
Propiedades:
, si (función siempre creciente)
Estadísticas de una variable aleatoria
Valores característicos de una variable aleatoria:
Modo: valor de probabilidad máxima
Media: valor medio (divide el área en 2 partes iguales)
Momentos
promedio (valor esperado o primer momento):
valor promedio-cuadrado (segundo momento):
momento N:
Momentos ``centrales''
varianza:
desviación estandar:
Variables Aleatorias de 2-Dimensiones
Definición: Dado un experimento con espacio de muestreo . Si y son dos funciones que le asignan números reales a cada resultado posible, entonces es una variable aleatoria bidimensional.
Dadas dos variables aleatorias (discretas), , deben satisfacer lo siguiente:
Ejemplos: número de artículos terminados en dos líneas de producción, número de pacientes con cancer y número de fumadores, etc.
Probabilidad marginal
Es la probabilidad particular de una de las variables dada un variable aleatoria bidimensional, y se define como:
Probabilidad condicional
Dada la probabilidad conjunta y marginal, la probabilidad condicional se define como:
Variables independientes
Dos variables aleatorias son independientes si su probabilidad conjunta es igual al producto de las marginales, esto es:
,
Correlación
El coeficiente de correlación ( ) denota el grado de linearidad entre dos variables aleatorias y se define como:
La correlación está dentro del intervalo: , donde un valor de 0 indica no-correlacionadas, y un valor de -1 ó 1 indica una relación lineal.
Independencia no-correlación (pero no viceversa).
Distribución Binomial
Una distribución binomial de la probabilidad de observar eventos (e.g., soles) de muestras independientes con dos posibles resultados (e.g., tirar monedas).

El valor esperado es:
La varianza es:
La desviación estandar es:
Si es grande, se aproxima a una distribución Normal
Distribución Normal o Gaussiana

El valor esperado es:
La varianza es:
La desviación estandar es:
El Teorema Central del Límite dice que la suma de un número grande de variables aleatorias independientes identicamente distribuidas siguen una distribución Normal.

EVENTOS MUTUAMENTE EXCLUYENTES E INDEPENDIENTES

Eventos mutuamente excluyentes y eventos no excluyentes
Dos o más eventos son mutuamente excluyentes o disjuntos, si no pueden ocurrir simultáneamente. Es decir, la ocurrencia de un evento impide automáticamente la ocurrencia del otro evento (o eventos).
Ejemplo:
Al lanzar una moneda solo puede ocurrir que salga cara o sello pero no los dos a la vez, esto quiere decir que estos eventos son excluyentes.
Dos o más eventos son no excluyentes, o
conjuntos, cuando es posible que ocurran ambos. Esto no indica que necesariamente deban ocurrir estos eventos en forma simultánea.
Ejemplo:
Si consideramos en un
juego de domino sacar al menos un blanco y un seis, estos eventos son no excluyentes porque puede ocurrir que salga el seis blanco.
Reglas de la Adición
La Regla de la Adición expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es igual a:
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente
P(A o B) = P(A) + P(B) – P(A y B) si A y B son no excluyentes
Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B
P(A y B) = probabilidad de ocurrencia simultanea de los eventos A y B
Eventos Independientes
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos independiente es el
muestreo con reposición, es decir, una vez tomada la muestra se regresa de nuevo a la población donde se obtuvo.
Ejemplo:
lanzar al
aire dos veces una moneda son eventos independientes por que el resultado del primer evento no afecta sobre las probabilidades efectivas de que ocurra cara o sello, en el segundo lanzamiento.
Eventos dependientes
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresión P(AB) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que AB no es una fracción.
P(AB) = P(A y B)/P(B) o P(BA) = P(A y B)/P(A)
Reglas de Multiplicación
Se relacionan con la determinación de la ocurrencia de conjunta de dos o más eventos. Es decir la intersección entre los conjuntos de los posibles valores de A y los valores de B, esto quiere decir que la probabilidad de que ocurran conjuntamente los eventos A y B es:
P(A y B) = P(A B) = P(A)P(B) si A y B son independientes
P(A y B) = P(A B) = P(A)P(BA) si A y B son dependientes
P(A y B) = P(A B) = P(B)P(AB) si A y B son dependientes
Distribución de probabilidad normal
Es una
distribución de probabilidad continua que es tanto simétrica como mesocurtica. La curva que representa la distribución de probabilidad normal se describe generalmente como en forma de campana. Esta distribución es importante en inferencia estadística por tres razones diferentes:
1. Se sabe que las medidas producidas en muchos
procesos aleatorios siguen esta distribución.
2. Las probabilidades normales pueden utilizarse generalmente para aproximar otras distribuciones de probabilidad, tales como las distribuciones binomial y de Poisson.
3. Las distribuciones estadísticas tales como la media de la muestra y la proporción de la muestra, siguen a menudo la distribución normal, sin tener en cuenta la distribución de la población
mLos valores de los parámetros de la distribución de probabilidad normal son = 1. Cualquier conjunto de valores X normalmente distribuido puedens= 0 y convertirse en valores normales estándar z por medio de la formula:
Haciendo posible el uso de la tabla de proporciones de área y hace innecesario el uso de la ecuación de la
función de densidad de cualquier distribución normal dada.
Para aproximar las distribuciones discretas binomial y de Poisson se debe hacer:
Binomial
np = m
np(1-p) = s
Si n > 30
.np > 5 n(1-p) > 5
Poisson
l = m
l = s
l > 10
Distribución de probabilidad exponencial
Si en el contexto de un
proceso de Poisson ocurren eventos o éxitos en un espectro continuo de tiempo y espacio. Entonces la longitud del espacio o tiempo entre eventos sucesivos sigue una distribución de probabilidad exponencial. Puesto que el tiempo y el espacio son un espectro continuo, esta es una distribución continua.
En caso de este tipo de distribución no vale la pena preguntarse ¿cuál es la probabilidad de que el primer pedido de
servicio se haga exactamente de aquí a un minuto?. Mas bien debemos asignar un intervalo dentro del cual el evento puede ocurrir, preguntándonos, ¿cuál es la probabilidad de que el primer pedido se produzca en el próximo minuto?.
Dado que el proceso de Poisson es estacionario, la distribución exponencial se aplica ya sea cuando estamos interesados en el tiempo (o espacio) hasta el primer evento, el tiempo entre dos eventos sucesivos, o el tiempo hasta que ocurra el primer evento después de cualquier punto aleatoriamente seleccionado.
es la cifra media de ocurrencias para el lDonde intervalo de
interés, la probabilidad exponencial de que el primer evento ocurra dentro del intervalo designado de tiempo o espacio es.
P(T < t) = 1 - e l-
De manera que la probabilidad exponencial de que el primer evento no ocurra dentro del intervalo designado de tiempo o espacio es:
P(T > t) = e l-
Ejemplo :
Un departamento de
mantenimiento recibe un promedio de 5 llamadas por hora. Comenzando en un momento aleatoriamente seleccionado, la probabilidad de que una llamada llegue dentro de media hora es:
=lPromedio 5 por hora, como el intervalo es media hora tenemos que 2,5/media hora.
P (T < 30 min.) = 1- e -5 = 1 - 0,08208 = 0,91792

EXPRESION DE PROBABILIDAD

EXPRECION DE LA PROBABILIDAD
Si queremos conocer la probabilidad del evento A según este enfoque debemos calcular el siguiente cociente: N(A) P(A) = ------------- N(S)
Donde: N(A): resultados elementales posibles son favorables en el evento A
N(S): posibles resultados en el espacio muestral
EJEMPLOS 1) En un mazo de cartas bien barajadas que contiene 4 ases y 48 cartas de otro tipo, la probabilidad de obtener un as (A) en una sola extracción es N(A) 4 1 P(A) = ------ = ----- = ---- N(S) 52 13
2) El experimento es lanzar un dado. ¿Cuál es la probabilidad de que caiga un dos hacia arriba? P( caiga 2 ) = 1 = .166 ---- 6
B.ENFOQUE DE FRECUENCIAS RELATIVAS (a posteriori o empírico)
Este enfoque permite determinar la probabilidad con base en la proporción de veces que ocurre un resultado favorable en cierto número experimentos.
No implica ningún supuesto previo de igualdad de probabilidades.
A este enfoque se le denomina también enfoque empírico debido a que para determinar los valores de probabilidad se requiere de la observación y de la recopilación de datos. También se le denomina a posteriori, ya que el resultado se obtiene después de realizar el experimento un cierto número de veces.
Si queremos conocer la probabilidad del evento A según este enfoque debemos calcular el siguiente cociente: Número de observaciones de A n(A)
P(A) = -------------------------------------- = ------- Tamaño de la muestra n
EJEMPLOS
1) Antes de incluir la cobertura para ciertos tipos de problemas dentales en pólizas de seguros médicos para adultos con empleo, una compañía de seguros desea determinar la probabilidad de ocurrencia de esa clase de problemas, para que pueda fijarse la prima de seguros de acuerdo con esas cifras. Por ello, un especialista en estadística recopila datos para 10,000 adultos que se encuentran en las categorías de edad apropiadas y encuentra que 100 de ellos han experimentado el problema dental específico durante el año anterior. Por ello, la probabilidad de ocurrencia es: 100
P(A) = --------------- = 0.01, o 1%
10,000
2) Se sabe que una moneda está cargada. Para determinar la probabilidad de que caiga águila se lanza 60 veces la moneda al aire, de las cuales 25 veces cayó águila. Si aplicamos la fórmula: P ( cae águila ) = 25 = 0.41 ---------- 60



Distribución de probabilidad
En
teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada evento definido sobre la variable aleatoria una probabilidad. La distribución de probabilidad describe el rango de valores de la variable aleatoria así como la probabilidad de que el valor de la variable aleatoria esté dentro de un subconjunto de dicho rango.
Cuando la variable aleatoria toma valores en el conjunto de los números reales, la distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada real x es la probabilidad de que la variable aleatoria sea menor o igual que x.


Definición de función de distribución
Dada una
variable aleatoria X, se define su función de distribución, FX(x), definida por:
Para simplificar la notación, cuando no hay lugar a confusión se omite el subíndice X, y se escribe simplemente F(x).
Por las propiedades de la probabilidad se cumplen las siguientes tres condiciones:
y
Es
continua por la derecha.
Es
monótona no decreciente.

La función de distribución es la acumulada de la
función de densidad de probabilidad f(x). Es decir, se calcula directamente según:
Si x es una variable aleatoria discreta
Si x es una variable aleatoria continua
Propiedades
Para dos números reales cualesquiera a y b tal que (a < b), los sucesos y serán mutuamente excluyentes y su unión es el suceso , por lo que tenemos entonces que:
y finalmente
Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable aleatoria x conoceremos completamente la distribución de probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.
Distribuciones de variable discreta


Distribución binomial.
Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de X
finito o infinito numerable. A dicha función se le llama función de masa de probabilidad. En este caso la distribución de probabilidad es el sumatorio de la función de masa, por lo que tenemos entonces que:
Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la suma de todas las probabilidades desde hasta el valor x.
Distribuciones de variable discreta más importantes
Las distribuciones de variable discreta más importantes son las siguientes:
Distribución binomial
Distribución binomial negativa
Distribución Poisson
Distribución geométrica
Distribución hipergeométrica
Distribución de Bernoulli
Distribución Rademacher, que toma el valor 1 con probabilidad 1 / 2 y el valor -1 con probabilidad 1 / 2.
Distribución uniforme discreta, donde todos los elementos de un conjunto finito son igualmente probables.
Distribuciones de variable continua

Distribución normal.
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un intervalo. En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
Distribuciones de variable continua más importantes
Las distribuciones de variable continua más importantes son las siguientes:
Distribución ji cuadrado
Distribución exponencial
Distribución t de Student
Distribución normal
Distribución Gamma
Distribución Beta
Distribución F

PROBABILIDAD

El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas de la probabilidad durante milenios, pero las descripciones matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después.
Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable) significaba aprobable, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."
[1]
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática.
La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de
Roger Cotes, pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teoría de las probabilidades. Representó la ley de la probabilidad de error con una curva y = φ(x), siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:
es simétrica al eje y;
el eje x es una
asíntota, siendo la probabilidad del error igual a 0;
la superficie cerrada es 1, haciendo cierta la existencia de un error.
Dedujo una fórmula para la media de tres observaciones. También obtuvo (1781) una fórmula para la ley de facilidad de error (un término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables.
Daniel Bernoulli (1778) introdujo el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.
El
método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su Nouvelles méthodes pour la détermination des orbites des comètes (Nuevos métodos para la determinación de las órbitas de los cometas). Ignorando la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain, editor de "The Analyst" (1808), dedujo por primera vez la ley de facilidad de error,
siendo c y h constantes que dependen de la precisión de la observación. Expuso dos demostraciones, siendo la segunda esencialmente la misma de
John Herschel (1850). Gauss expuso la primera demostración que parece que se conoció en Europa (la tercera después de la de Adrain) en 1809. Demostraciones adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r, el error probable de una única observación, es bien conocida.
En el
siglo XIX, los autores de la teoría general incluían a Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposición de la teoría.
En 1930 Andréi
Kolmogorov desarrolló la base axiomática de la probabilidad utilizando teoría de la medida.
Teoría
La probabilidad constituye un importante parametro en la determinación de las diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.
Existen diversas formas como método abstracto, como la
teoría Dempster-Shafer y la teoría de la relatividad numérica, esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad. Así mismo es la parte de ley
Aplicaciones
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de
riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto. No es correcto decir que la estadística está incluida en el propio modelado, ya que típicamente los análisis de riesgo son para una única vez y por lo tanto requieren más modelos de probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de números pequeños tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de estas elecciones, lo que hace de las medidas probabilísticas un tema político.
Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado sobre los precios del petróleo en Oriente Medio - que producen un efecto dominó en la economía en conjunto. Un cálculo por un mercado de materias primas en que la guerra es más probable en contra de menos probable probablemente envía los precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinión. Por consiguiente, las probabilidades no se calculan independientemente y tampoco son necesariamente muy racionales. La teoría de las
finanzas conductuales surgió para describir el efecto de este pensamiento de grupo en el precio, en la política, y en la paz y en los conflictos.
Se puede decir razonablemente que el descubrimiento de métodos rigurosos para calcular y combinar los cálculos de probabilidad ha tenido un profundo efecto en la sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayoría de los ciudadanos entender cómo se cálculan los pronósticos y las probabilidades, y cómo contribuyen a la reputación y a las decisiones, especialmente en una
democracia.
Otra aplicación significativa de la teoría de la probabilidad en el día a día es en la
fiabilidad. Muchos bienes de consumo, como los automóviles y la electrónica de consumo, utilizan la teoría de la fiabilidad en el diseño del producto para reducir la probabilidad de avería. La probabilidad de avería también está estrechamente relacionada con la garantía del producto.
Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situación. Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja de cartas es la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% o 0%, y la elección correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones determinísticas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios.
En un universo determinista, basado en los conceptos
newtonianos, no hay probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza de la mano y el periodo de esta fuerza es conocido, entonces el número donde la bola parará será seguro. Naturalmente, esto también supone el conocimiento de la inercia y la fricción de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad de la mano durante el movimiento y así sucesivamente. Una descripción probabilística puede entonces ser más práctica que la mecánica newtoniana para analizar el modelo de las salidas de lanzamientos repetidos de la ruleta. Los físicos se encuentran con la misma situación en la teoría cinética de los gases, donde el sistema determinístico en principio, es tan complejo (con el número de moléculas típicamente del orden de magnitud de la constante de Avogadro que sólo la descripción estadística de sus propiedades es viable.
La
mecánica cuántica, debido al principio de indeterminación de Heisenberg, sólo puede ser descrita actualmente a través de distribuciones de probabilidad, lo que le da una gran importancia a las descripciones probabilísticas. Algunos científicos hablan de la expulsión del paraíso.[cita requerida] Otros no se conforman con la pérdida del determinismo. Albert Einstein comentó estupendamente en una carta a Max Born: (No obstante hoy en día no existe un medio mejor para describir la física cuántica si no es a través de la teoría de la probabilidad. Mucha gente hoy en día confunde el hecho de que la mecánica cuántica se describe a través de distribuciones de probabilidad con la suposición de que es por ello un proceso aleatorio, cuando la mecánica cuántica es probabilística no por el hecho de que siga procesos aleatorios sino por el hecho de no poder determinar con precisión sus parámetros fundamentales, lo que imposibilita la creación de un sistema de ecuaciones determinista.