sábado, 30 de julio de 2016

Probabilidad clasica

Probabilidad clásica


Es el número de resultados favorables a la presentación de un evento dividido entre el número total de resultados posibles. Asignación de probabilidad "a priori", si necesidad de realizar el experimento. 


La probabilidad clásica o teórica se aplica cuando cada evento simple del espacio muestral tiene la misma probabilidad de ocurrir.
(Rafael Díaz. 2000)

Fórmula para obtener la probabilidad clásica o teórica:
Ejemplo: 
¿Cuál es la probabilidad de obtener un número mayor que 3, en el lanzamiento de un dado? 
Si E: 4, 5, 6, entonces el número de resultados favorables es n (E) = 3.
Si S: 1, 2, 3, 4, 5, 6, entonces el número total de resultados posibles es (S) = 6.

Por lo tanto:


Esta definición clásica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; también se conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento aleatorio, el espacio muestral y el número de resultados o sucesos elementales que entran a formar parte del suceso.

(Rafael Díaz. 2000) 


La aplicación de la definición clásica de probabilidad puede presentar dificultades de aplicación cuando el espacio muestral es infinito o cuando los posibles resultados de un experimento no son equiprobables.(Rafael Díaz. 2000) 


Ejemplo:
En un proceso de fabricación de piezas puede haber algunas defectuosas y si queremos determinar la probabilidad de que una pieza sea defectuosa no podemos utilizar la definición clásica pues necesitaríamos conocer previamente el resultado del proceso de fabricación.
Para resolver estos casos, se hace una extensión de la definición de probabilidad, de manera que se pueda aplicar con menos restricciones, llegando así a la definición frecuentista de probabilidad:




viernes, 29 de julio de 2016

Eventos excluyentes y complementarios

Eventos excluyentes y complementarios 


http://www.fisicanet.com.ar/matematica/estadisticas/ap04_probabilidades.php 

Eventos no excluyentes
Sacar un 5 y una carta de espadas. Son eventos no excluyentes pues podemos tomar un 5 de espadas. 

Sacar una carta roja y una carta de corazones. Son eventos no excluyentes pues las cartas de corazones son uno de los palos rojos. 

(P. Ibarrola, L. Pardo y V. Quesada 1997) 

Eventos mutuamente excluyentes

Los eventos mutuamente excluyentes son aquellos en los que si un evento sucede significa que el otro no puede ocurrir. Si bien suelen usarse en teorías científicas, también son parte de las leyes y los negocios.
Fórmula

La fórmula matemática para determinar la probabilidad de los eventos mutuamente excluyentes es P(A U B) = P(A) + P(B). Dicho en voz alta, la fórmula es "Si A y B son evento mutuamente excluyentes, entonces la probabilidad de que A o B suceda es equivalente a la probabilidad del evento A más la probabilidad del evento B".
(Spiegel, Murray. 1970)

Sacar una carta de corazones y una carta de espadas. Son eventos mutuamente excluyentes, las cartas o son de corazones o son de espadas. 

Sacar una carta de tréboles roja. Son eventos mutuamente excluyentes pues las cartas de tréboles son exclusivamente negras.

No es posible encontrar una sola carta que haga posible que los eventos sucedan a la vez.
(Spiegel, Murray. 1970)

        Eventos dependientes, independientes y condicionales

Eventos Independientes
Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se regresa de nuevo a la población donde se obtuvo.
Dos eventos, A y B, son independientes si la ocurrencia de uno no tiene que ver con la ocurrencia de otro.

Por definición, A es independiente de B si y sólo si:A y B, son independientes si la ocurrencia de uno no tiene que ver con la ocurrencia de otro.
(Rafael Díaz. 2000) 

Eventos dependientes
Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresión P (A|B) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.
Se debe tener claro que A|B no es una fracción.

P (A|B) = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A)

Probabilidad Condicional = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A)
(Rafael Díaz. 2000)

Probabilidad Condicional
Si A y B son dos eventos en S, la probabilidad de que ocurra A dado que ocurrió el evento B es la probabilidad condicional de A dado B, y se denota:A y B son dos eventos en S, la probabilidad de que ocurra A dado que ocurrió el evento B es la probabilidad condicional de A dado B, y se denota:
  • P(AlB) 
(Rafael Díaz. 2000)

Evento o suceso

Evento o suceso
En la teoria de la probabilidad, un evento o suceso aleatorio, probabilístico o estadístico es un subconjunto de un espacio muestral, es decir, un conjunto de posibles resultados que se 
pueden dar en un experimento aleatorio.
Formalmente, sea Ω un espacio muestral, entonces un evento es un subconjunto.
A := { w 1 , w 2 , . . . } ⊆ Ω {\displaystyle A:=\{w_{1},w_{2},...\}\subseteq \Omega }
, donde ( w 1 , w 2 , . . . ) {\displaystyle (w_{1},w_{2},...)} son una serie de posibles resultados. En el caso de espacios probabilísticos infinitos de tipo ( Ω , A , μ ) {\displaystyle (\Omega ,{\mathcal {A}},\mu )} existe el requerimiento de que A ∈ A {\displaystyle A\in {\mathcal {A}}} , es decir, 
que se trate de un subconjunto que específicamente pertenezca a la σ-álgebra]] usada para definir el espacio muestral.

Se dice que un evento A ocurre, si el resultado del experimento aleatorio es un elemento de A.
(Kallenberg. 2002)
Tipos de eventos
Evento simple o suceso elemental
Un suceso o evento simple es un subconjunto del espacio muestral.
Ejemplos de espacios muestrales y sucesos elementales: 
Si se trata de contar objetos y el espacio muestral S = {1, 2, 3,4,5,6,7 ...} (los numeros naturales) 
Si se lanza una moneda dos veces, S = {cc, cs, sc, ss}, donde (c representa "sale cara" y s, "sale cruz"), los sucesos elementales son {cc}, {cs}, {sc} y {ss}. 
Si X es una variable aleatoria normalmente distribuida, S = (-∞, +∞), los numeros reales, los sucesos elementales son todos los conjuntos {x}, donde x ∈

(Kallenberg. 2002)

R {\displaystyle \mathbb {R} 
Los sucesos elementales pueden tener probabilidades que son estrictamente mayores que cero, no definidas o cualquier combinación de estas. Por ejemplo, la probabilidad de cualquier variable aleatoria discreta está determinada por las probabilidades asignadas a los sucesos elementales del experimento que determina la variable.
(Real Academia Española. 2014)

Otros sucesos
Un evento compuesto es un conjunto { w 1 , . . . , w n } ⊆ Ω {\displaystyle \{w_{1},...,w_{n}\}\subseteq \Omega }

Los eventos triviales son el conjunto universal Ω y el conjunto vacio. Al primero se le llama también.  
Sean dos eventos A y B, si ambos son conjuntos disjuntos, entonces ellos son eventos excluyentes. 
Un evento con elementos infinitos pero numerables se llama o-algebra (sigma-álgebra) y un evento con elementos finitos se llama álgebra de sucesos de Boole.
(Spiegel, Murray. 1970)

Propiedades
Dados dos eventos A {\displaystyle A} y B {\displaystyle B} , entonces: 

El evento A ∩ B {\displaystyle A\cap B} ocurre si A {\displaystyle A} y B {\displaystyle B} ocurren a la vez. 
El evento A ∪ B {\displaystyle A\cup B} ocurre si por lo menos ocurre A {\displaystyle A} , B {\displaystyle B} o ambos. 
Relación entre eventos 
Dos sucesos se dicen independientes si la probabilidad del suceso conjunto P ( A ∩ B ) {\displaystyle P(A\cap B)} 



coincide con el producto de probabilidades de cada evento, es decir, P ( A ∩ B ) = P ( A ) P ( B ) {\displaystyle P(A\cap B)=P(A)P(B)}
Dos eventos se dicen disjuntos si no pueden ocurrir simultáneamente por ser incompatibles.
(Real Academia Española. 2014)

Espacio muestral


Espacio muestral
En la teoría dde probabilidades, el espacio muestral o espacio de muestreo (denotado E, S, Ω o U) consiste en el conjunto de todos los posibles resultados individuales de un experimento aleatorio.

Por ejemplo, si el experimento consiste en lanzar dos monedas, el espacio de muestreo es el conjunto {(cara, cara), (cara, cruz), (cruz, cara) y (cruz, cruz)}. Un evento o suceso es cualquier subconjunto del espacio muestral con estructura de o-algebra llamándose a los sucesos que contengan un único elemento sucesos elementales. En el ejemplo, el suceso "sacar cara en el primer lanzamiento", o {(cara, cara), (cara,cruz)}, estaría formado por los sucesos elementales {(cara, cara)} y {(cara, cruz)}.
Una descripción completa de los resultados, sin embargo, especificaría ambos valores, número y palo, y se podría construir un espacio de muestreo que describiese cada carta individual como el producto cartesiano de los dos espacios de muestreo descritos. 
(Liliana Blanco Castañeda 2010). 


Los espacios de muestreo aparecen de forma natural en una aproximación elemental a la probabilidad, pero son también importantes en espacios de probabilidad. 
(Liliana Blanco Castañeda 2010). 


Tipos de espacio muestral
Podemos diferenciar entre dos tipos de espacios muestrales: discretos y continuos.


Discretos
Son aquellos espacios donde el número de sucesos elementales es finito o infinito numerable.
Espacio probabilístico discreto
Es aquel cuyo espacio muestral es discreto. Podemos diferenciar varios tipos de espacio probabilístico discreto:
Espacio probabilístico discreto equiprobable 
Su espacio muestral es finito de tamaño n. 


Espacio probabilístico finito 
Su espacio muestral es discreto finito. 
Hay al menos 2 sucesos elementales que cumplen. P ( A ) ≠ P ( B ) {\displaystyle P(A)\neq P(B)}
Procesos estocásticos finitos y diagramas de árbol
Un proceso estocástico es una sucesión finita de experimentos aleatorios, cada uno de ellos con un nº finito de resultados posibles. Se representan con diagrama de árbol.


Ahora bien, la probabilidad de un suceso cualquiera es la suma de las probabilidades de los distintos resultados aislados posibles. Así, la probabilidad de sacar siempre un resultado impar en los dados, independientemente del resultado de la moneda, será:


P ( I ) = 1 2 ⋅ 1 6 + 1 2 ⋅ 1 6 + 1 2 ⋅ 1 6 + 1 2 ⋅ 1 6 + 1 2 ⋅ 1 6 + 1 2 ⋅ 1 6 {\displaystyle P(I)={1 \over 2}\cdot {1 \over 6}+{1 \over 2}\cdot {1 \over 6}+{1 \over 2}\cdot {1 \over 6}+{1 \over 2}\cdot {1 \over 6}+{1 \over 2}\cdot {1 \over 6}+{1 \over 2}\cdot {1 \over 6}} 



Espacio probabilístico infinito contable

Aquel cuyo espacio muestral es discreto infinito contable. Por ejemplo: 
La probabilidad de que salga cara en la primera tirada ----> 1 2 {\displaystyle {1 \over 2}}
La probabilidad de que salga nuevamente cara en la segunda tirada ----> 1 2 ⋅ 1 2 = 1 4 {\displaystyle {1 \over 2}\cdot {1 \over 2}={1 \over 4}}
La probabilidad de que salga nuevamente cara en la tercera tirada ----> 1 2 ⋅ 1 2 ⋅ 1 2 = 1 8 {\displaystyle {1 \over 2}\cdot {1 \over 2}\cdot {1 \over 2}={1 \over 8}}

Continuos
Son aquellos espacios donde el número de sucesos elementales es infinito incontable.

Espacio probabilístico continuo 
Espacio muestral infinito no numerable. -No es posible observar puntos concretos del espacio. 
Tiene sentido hablar de intervalos observados. - No es posible asignar probabilidad a un punto en concreto. 
Por tanto la función P está definida sobre intervalos -----> P ( K i < E x p > K e ) {\displaystyle P(K_{i}<Exp>K_{e})}


-Habitualmente cuando trabajamos con magnitudes físicas.

Particiones
Es posible definir particiones sobre el espacio muestral. Formalmente hablando, una partición sobre Ω se define como un conjunto numerable:


{ A i } i ∈ N {\displaystyle \{A_{i}\}_{i\in \mathbb {N} }\;} tal que: 
A 1 ∪ A 2 ∪ . . ∪ A n = Ω {\displaystyle A_{1}\cup A_{2}\cup ..\cup A_{n}=\Om
A i ∩ A j = ∅ ∀ i ≠ j ; i , j = 1.. n {\displaystyle A_{i}\cap A_{j}=\emptyset \;\forall i\neq j;\ i,j=1..n}
P ( A i ) > 0 ∀ i = 1.. n {\displaystyle P(A_{i})>0\;\forall i=1..n}
Ejemplos
Por ejemplo, en el caso del experimento aleatorio "lanzar un dado", el espacio muestral del experimento sería: Ω={1,2,3,4,5,6}. Por otro lado, si cambiamos ligeramente la experiencia pensando en el número resultante de la suma de 2 dados, entonces tenemos 2 posibles espacios muestrales para modelar nuestra realidad: 

La elección del espacio muestral es un factor determinante para realizar el cálculo de la probabilidad de un suceso.
(Liliana Blanco Castañeda 2010).

Experimento aleatorio


Experimento aleatorio
En teoría de la probabilidad un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, es decir, no se puede predecir o reproducir el resultado exacto de cada experiencia particular. (Ej: Lanzamiento de un dado).
(REFERENCIA Armas, J. 1988). 

Propiedades
Es toda aquella situación que debe llevarse a cabo para saber cual es el resultado. Un experimento se dice aleatorio si verifica las siguientes condiciones:
Si los resultados se pueden contar se le llama experimento aleatorio numerable; y si no se pueden contar, se le llama experimento aleatorio no numerable.
(REFERENCIA Armas, J. 1988).

Controversia

Existe cierta controversia sobre si los fenómenos aleatorios existen realmente o simplemente surgen del desconocimiento de los factores que desencadenan el mismo o de las leyes físicas que lo rigen. Por ejemplo, si en el lanzamiento de un dado conociéramos exactamente la fuerza, altura al suelo y ángulo del lanzamiento, las dimensiones exactas del dado y las propiedades del suelo, se podría mediante complejos cálculos conocer el resultado final. Es por esto que algunas veces se define un fenómeno aleatorio como aquel en el que pequeños cambios en sus factores producen grandes diferencias en su resultado.
(REFERENCIA Armas, J. 1988).

Probabilidades

Probabilidades
La probabilidad es un método por el cual se obtiene la frecuencia de un acontecimiento determinado mediante la realización de experimentos aleatorios, de los que se conocen todos los resultados posibles, bajo condiciones suficientemente estables. La probabilidad es un evento o suceso que puede ser improbable, probable o seguro.
Teoría

La probabilidad constituye un importante parámetro en la determinación de las diversas obtenidas tras una serie de eventos esperados dentro de un rango estadístico.

(Real Academia Española. 2014)

Regla de la adición
La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.
P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente. P(A o B) = P(A) + P(B) −P(A y B) si A y B son no excluyentes.
Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) = probabilidad de ocurrencia del evento B.
P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.
(Jeffrey, R.C. 1992).

Regla de la multiplicación
La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales.
P (A y B) = P (A B) = P (A) P (B) si A y B son independientes.
P (A y B) = P (A B) = P (A) P (B|A) si A y B son dependientes.
Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son seleccionados uno después del otro para ver si ellos son defectuosos. Suponga que dos objetos son seleccionados sin reemplazo (significa que el objeto que se selecciona al azar se deja por fuera del lote).

Solución:
Sea los eventos
A1 = {primer objeto defectuoso}, A2 {segundo objeto defectuoso}
entonces dos objetos seleccionados serán defectuosos, cuando ocurre el evento A1∩ A2 que es la intersección entre los eventos A1 y A2. De la información dada se tiene que:

P (A1) = 20/100 ; P (A2/A1) = 19/99
así probabilidad de que los dos objetos seleccionados sean defectuosos es P (A1 ∩ A2) = P (A1) P (A2/A1) 
(20/100)(19/99) 
19/495 = 0.038 
Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los tres objetos seleccionados sean defectuosos es P (A1 ∩ A2 ∩ A3) = P (A1) P (A2/A1) P (A3/A1∩A2) 
(20/100)(19/99)(18/98) 
19/2695 = 0.007 
(Jeffrey, R.C. 1992). 

Regla de Laplace
La Regla de Laplaze establece que: 
La probabilidad de ocurrencia de un suceso imposible es 0. 
La probabilidad de ocurrencia de un suceso seguro es 1, es decir, P(A) = 1. 
Para aplicar la regla de Laplace es necesario que los experimentos den lugar a sucesos equiprobables, es decir, que todos tengan o posean la misma probabilidad. 

Distribución binomial
La probabilidad de ocurrencia de una combinación específica de eventos independientes y mutuamente excluyentes se determina con la distribución binomial, que es aquella donde hay solo dos posibilidades, tales como masculino/femenino o si/no.


Aplicaciones
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos normalmente aplican métodos probabilísticos en regulación ambiental donde se les llama "análisis de vías de dispersión", y a menudo miden el bienestar usando métodos que son estocásticos por naturaleza, y escogen qué 

proyectos emprender basándose en análisis estadísticos de su probable efecto en la población como un conjunto.(Jeffrey, R.C. 1992).

Se puede decir que no existe una cosa llamada probabilidad. También se puede decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el grado de nuestra ignorancia dada una situación.
Por consiguiente, puede haber una probabilidad de 1 entre 52 de que la primera carta en un baraja sea la J de diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la probabilidad es o bien 100% ó 0%, y la elección correcta puede ser hecha con precisión por el que ve la carta. La física moderna proporciona ejemplos importantes de situaciones deterministas donde sólo la descripción probabilística es factible debido a información incompleta y la complejidad de un sistema así como ejemplos de fenómenos realmente aleatorios.
(Jeffrey, R.C. 1992).

Investigación biomédica
La mayoría de las investigaciones biomédicas utilizan muestras de probabilidad, es decir, aquellas que el investigador pueda especificar la probabilidad de cualquier elemento en la población que investiga. Las muestras de probabilidad permiten usar estadísticas inferenciales, aquellas que permiten hacer inferencias a partir de datos.(Historias de Probabilidad. 2011)

Medidas de dispersión

Medidas de dispersión 

Las medidas de dispersión, también llamadas medidas de variabilidad, muestran la variabilidad de una distribución, indicando por medio de un número, si las diferentes puntuaciones de una variable están muy alejadas de la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.

El rango o recorrido estadístico es la diferencia entre el valor máximo y el valor mínimo en un grupo de números aleatorios. Se le suele simbolizar con R.(Estadística Básica con R y R-Comander. Publicado en OCW-UCA)

Varianza
Artículo principal: Varianza

La varianza es una medida estadística que mide la dispersión de los valores respecto a un valor central (media), es decir, es el cuadrado de las desviaciones:





I
Propiedades
La varianza es siempre positiva o 0:
Si a los datos de la distribución les sumamos una cantidad constante la varianza no se modifica.

Si a los datos de la distribución los multiplicamos una constante, la varianza queda multiplicada por el cuadrado.

Propiedad distributiva:
Desviación típica
La varianza a veces no se interpreta claramente, ya que se mide en unidades cuadráticas. Para evitar ese problema se define otra medida de dispersión, que es la desviación típica, o desviación estándar, que se halla como la raíz cuadrada positiva de la varianza. La desviación típica informa sobre la dispersión de los datos respecto al valor de la media; cuanto mayor sea su valor, más dispersos estarán los datos.(Estadística Básica con R y R-Comander. Publicado en OCW-UCA)

Desviación típica muestral



 

 {\frac {\i}-\mu )^{2}}{n}}}}  Desviación típica poblacional
-->x = [17 14 2 5 8 7 6 8 5 4 3 15 9] x = 17. 14. 2. 5. 8. 7. 6. 8. 5. 4. 3. 15. 9. -->stdev(x) ans = 4.716311 -->
Primero hemos declarado un vector con nombre X, donde introduzco los números de la serie. Luego con el comando stdev se hallará la desviación típica.


Covarianza
La covarianza entre dos variables es un estadístico resumen indicador de si las puntuaciones están relacionadas entre sí. La formulación clásica, se simboliza por la letra griega sigma (σ) cuando ha sido calculada en la población. 

 

Este tipo de estadístico puede utilizarse para medir el grado de relación de dos variables si ambas utilizan una escala de medida a nivel de intervalo/razón (variables cuantitativas).
La expresión se resuelve promediando el producto de las puntuaciones diferenciales por su tamaño muestral (n pares de puntuaciones, n-1 en su forma insesgada).
(Estadística Básica con R y R-Comander. Publicado en OCW-UCA)

(Estadística Básica con R y R-Comander. Publicado en OCW-UCA) 

Coeficiente de Correlación de Pearson
El coeficiente de correlación de Pearson, r, permite saber si el ajuste de la nube de puntos a la recta de regresión obtenida es satisfactorio. Se define como el cociente entre la covarianza y el producto de las desviaciones típicas (raíz cuadrada de las varianzas).


Teniendo en cuenta el valor de la covarianza y las varianzas, se puede evaluar mediante cualquiera de las dos expresiones siguientes:
Ejemplo Para una muestra de valores (3, 3, 5, 6, 8), el dato de menor valor Min= 3 y el dato de mayor
valor Max= 8. Valor maximo=8

(Estadística Básica con R y R-Comander. Publicado en OCW-UCA) 

Propiedades
El coeficiente de correlación, r, presenta valores entre –1 y +1. 
Cuando r es próximo a 0, no hay correlación lineal entre las variables. La nube de puntos está muy dispersa o bien no forma una línea recta. No se puede trazar una recta de regresión. 

Cuando r es cercano a +1, hay una buena correlación positiva entre las variables según un modelo lineal y la recta de regresión que se determine tendrá pendiente positiva, será creciente. 

(Estadística Básica con R y R-Comander. Publicado en OCW-UCA)