martes, 10 de agosto de 2021

Mate4

 

capítulo 2

 

 

Probabilidad y Variables Aleatorias

 

 

2.1       Introducción

 

      Hasta ahora se ha estudiado la transmisión de señales deterministas por un canal y no se ha puesto ningún énfasis en el papel central jugado por el concepto de “aleatoriedad” en las comunicaciones. La palabra aleatorio significa impredecible. Las señales que llevan símbolos de información en un mensaje son aleatorias porque la información es aleatoria. Si el receptor en el extremo terminal de un canal conociese por adelantado el mensaje proveniente de la fuente que lo origina, no habría necesidad de la comunicación. De modo que hay una aleatoriedad en la fuente del mensaje. Además, las señales transmitidas siempre están acompañadas por ruido que introduce el sistema; este ruido se conoce como aditivo. Estas ondas de ruido siempre son impredecibles y el desafío real de la comunicación es separar la señal deseada de la “basura” (ruido) indeseada. Como no se conoce en detalle la variación con el tiempo de una señal aleatoria, se debe hablar entonces en términos de probabilidades y propiedades estadísticas. El objetivo de este capítulo es presentar el conocimiento matemático esencial para un mejor estudio de la comunicación; los tópicos principales incluyen probabilidades, variables aleatorias, promedios estadísticos y modelos importantes.

 

2.2       Probabilidad y Espacio Muestral

 

La teoría de probabilidades establece un marco matemático para el estudio de fenómenos aleatorios y trata principalmente de promedios de fenómenos masivos que ocurren secuencial o simultáneamente: juegos de azar, encuestas, seguros, herencia, control de calidad, mecánica estadística, teoría de colas, ruido. Ella no trata sobre la naturaleza de los procesos aleatorios sino más bien con manifestaciones observables experimentalmente. Proporciona las herramientas básicas para construir y analizar modelos matemáticos para los fenómenos aleatorios. Por esta razón, aquí se analizarán las probabilidades en términos de sucesos o eventos asociados con los resultados de experimentos.

 

2.2.1       Experimentos Aleatorios

 

Antes de definir lo que se entiende por probabilidad, debemos extender nuestro vocabulario y definir algunos términos importantes.

      La mayoría de nosotros tiene ciertas nociones intuitivas elementales sobre las leyes de probabilidades y podemos figurarnos un juego o un experimento para verificar la validez de estas nociones. Este procedimiento se parece mucho al llamado enfoque clásico a la teoría de probabilidades, enfoque que en el tiempo ha sido sometido a muchas críticas, sobre todo por la aparición de muchas contradicciones y controversias, debido a lo intuitivo del procedimiento y a la falta de formalismo y rigor bien definidos. Así pues, el experimento o juego usualmente se define suponiendo ciertas simetrías y aceptando a priori ciertos resultados, como por ejemplo la idea de que ciertos resultados tienen igual posibilidad de ocurrir. Por ejemplo, considere el problema siguiente: Dos personas, A y B, juegan a lanzar una moneda dos veces. Si una cara aparece en por lo menos uno de los lanzamientos, A gana. De lo contrario B gana. Intuitivamente, parece que los resultados siguientes son igualmente probables:

donde C denota cara y S denota sello. A puede suponer que sus oportunidades para ganar el juego son 3/4, ya que una cara ocurre en tres de los cuatro casos (a su favor). Por otra parte, el razonamiento siguiente también puede parecer lógico. Si el resultado del primer lanzamiento es C, A gana; no hay necesidad de continuar el juego. En consecuencia, sólo se tienen que considerar tres posibilidades, a saber

donde los primeros dos casos son favorables a A y al menos uno a B. En otras palabras, la probabilidad de que A gane es realmente 2/3 en vez de ¾. El enfoque intuitivo en este problema parece conducir a dos estimados diferentes de la probabilidad. Así que para el juego o para el experimento se deben establecer reglas claras y precisas.

      Un experimento es un conjunto de reglas que rigen la realización de una operación; el experimento se llama un experimento aleatorio si su resultado no puede predecirse. Se supone que todos los resultados posibles (distintos) de un experimento aleatorio son conocidos. Ejemplos típicos de un experimento aleatorio son el lanzamiento de una moneda (como el mencionado) o de un dado, sacar una baraja de un mazo o seleccionar una señal de mensaje de un grupo de mensajes para su transmisión. En cualquiera de estos casos se debe ser preciso en la descripción del experimento.

 

2.2.2    Definiciones Fundamentales

 

Los eventos y combinaciones de eventos tienen un papel primordial en la teoría de probabilidades; en esta se está interesado en un experimento con un resultado que depende del azar, el cual se denomina un experimento aleatorio. Un experimento típico, con un conjunto de reglas que rigen su operación, puede tener varios resultados posibles conocidos y puede haber diferentes formas de caracterizar los eventos asociados. Por ejemplo, al lanzar un dado y observar la cara que sale, hay seis resultados posibles. El conjunto de todos los resultados posibles de un experimento aleatorio se supone conocido y se denomina el espacio muestral S. Un elemento o partición en S se llama un punto de muestra. Cada resultado de un experimento aleatorio corresponde a un punto de muestra; es decir, un resultado se obtiene al realizar el experimento una vez. Un conjunto o combinación de puntos de muestra, o conjunto de resultados, se llama un evento o suceso, éste es un subconjunto del espacio muestral; en el experimento del dado, por ejemplo, un evento sería “sale un número par”. Una asignación de números reales a los eventos definidos en S se conoce como la medida de la probabilidad.

      Los elementos de un conjunto pueden ser de cualquier tipo y tener cualesquiera propiedades especificadas. Se usarán letras mayúsculas A, B, C, F, Y, etc., para denotar conjuntos y letras minúsculas a, b c, f, y, etc.,  para denotar sus elementos. Un conjunto se describe por sus elementos, así, por ejemplo, podemos escribir

lo que significa que los elementos de A son los enteros 1 hasta 6. Si el conjunto B contiene dos elementos, éxito o falla, se puede describir como B = {e, f}, donde e y f se escogieron como representación de éxito y falla, respectivamente. Para un conjunto formado por todos los números reales no negativos, una descripción conveniente es

Se usará la convención

para indicar que “el elemento a pertenece al conjunto A”.

      Es importante señalar que, para un experimento aleatorio dado, el espacio muestral asociado no es único y su construcción depende del punto de vista adoptado y también de las preguntas a responder. Aunque la partición del espacio muestral S no es única, los puntos de muestra están sujetos a dos requisitos:

1.      El conjunto de los puntos de muestra debe ser exhaustivo, de modo que S consiste de todos los resultados posibles del experimento en cuestión.

2.      Los resultados deben ser mutuamente excluyentes, de modo que uno y sólo uno de ellos ocurre en un ensayo dado.

En consecuencia, cualesquiera eventos de interés pueden ser descritos por subconjuntos de S que contienen cero, uno o más de un punto de muestra. Aquí también tenemos que hacer la distinción entre conjuntos que contienen un número finito de elementos, conjuntos finitos, y aquellos que contienen un número infinito, conjuntos infinitos. Un conjunto infinito es contable si sus elementos pueden ser arreglados de modo que exista una correspondencia uno a uno entre ellos y todos los enteros positivos. Un conjunto no contable es aquél donde no se puede establecer la correspondencia uno a uno mencionada.

 

2.2.3    Definiciones Auxiliares

 

1.      El complemento del evento A, denotado , es el evento que contiene todos los puntos de muestra en S pero no en A.

2.      La unión de los eventos A y B, denotada A È B o A + B, es el evento que contiene todos los puntos de muestra en bien sea A o B o en ambos; es decir, la unión representa la ocurrencia de A o B o de ambos.

3.      La intersección de los eventos A y B, denotada A Ç B o AB, es el evento que contiene todos los puntos de muestra en ambos A y B; es decir  representa la ocurrencia de A y B.

4.      El evento que no contiene ningún punto de muestra se llama el evento nulo o vacío y se denota por Æ. Así que Æ corresponde a un evento imposible y representa el conjunto vacío.

5.      Dos eventos A y B se llaman mutuamente excluyentes si no contienen puntos de muestra comunes, es decir, si A Ç B = Æ. Observe que .

6.      Si todo punto de muestra de A es también un punto de muestra de B, entonces A es un subconjunto de B. Esto se representa simbólicamente por A Ì B o . Cuando A Ì B y , el conjunto A es entonces igual a B y se escribe A = B.

   Ahora se define un conjunto particular el cual se denomina espacio. En este trabajo, sólo se consideran conjuntos que son subconjuntos de una conjunto fijo no vacío. Este conjunto que contiene todos los elementos de todos los conjuntos bajo consideración se denomina espacio y se denota por el símbolo S. Está claro entonces que se cumplen las relaciones siguientes:

                                                                           

 

2.2.4    Álgebra de Eventos

 

      Ahora se considerarán algunas operaciones con conjuntos que son subconjuntos del espacio S. Las relaciones entre las operaciones de complementación, unión e intersección se ilustran geométricamente mediante los diagramas de Venn mostrados en la Fig. 2.1. De la figura vemos que

                                                                                         

                                                                                          

                                                                                                       

Las Ecs. y se conocen como las leyes de De Morgan. Las operaciones de unión e intersección de A, B y C, subconjuntos del conjunto universal S, también satisfacen las leyes siguientes:

 

Leyes Conmutativas:                                                       

                                                                                            

Leyes Asociativas:                                                                                                                                       

                                                                                                                                                                       

 

Figura 2.1  Diagramas de Venn.

 

Leyes Distributivas:                                                                                                                                

                                                                                                                                                                   

Leyes Complementarias:                                                    

                                                                                              

                                                                                                

                                                                                                

                                                                                              

 

2.2.5       Probabilidades de Eventos

 

En la teoría de probabilidades estamos interesados en un experimento cuyo resultado depende de la casualidad y que denominamos un experimento aleatorio. Se supone aquí que se conocen todos los distintos resultados de un experimento aleatorio y que todos ellos pertenecen al espacio muestral. Es importante señalar que, para un experimento dado, el espacio muestral asociado no es único y su construcción dependen del punto de vista adoptado y de las preguntas que deben responderse. Ahora procederemos con las diferentes definiciones de probabilidades de eventos.

 

1.        Definición de Frecuencia Relativa:

Supóngase que un experimento aleatorio es repetido n veces, donde n tiene un valor muy grande. Si un evento A ocurre nA veces, la fracción nA/n se define como la frecuencia relativa de A. Bajo condiciones estables, es de esperar que esta fracción tienda a un valor único conforme n se hace grande. Este valor límite posee claramente las propiedades de la medida de probabilidad. Por lo tanto, la probabilidad del evento A, denotada P(A), se define formalmente como

                                                                                        

Esta definición es intuitivamente satisfactoria. Por ejemplo, si una moneda se lanza muchas veces, la relación entre el número de caras y el número de lanzamientos tendería a 1/2. Por lo tanto, la probabilidad de una cara se define como igual a ½. Este ejemplo sencillo muestra por qué n debe tender a infinito.  Se debe observar que

                                                                                                

                                                                                                

                                                                                        

La Ec. establece que la probabilidad de cualquier evento A es un número real en el intervalo :

                                                                                            

Considerando un evento que ocurre en toda observación, produce el caso límite , el cual es un evento cierto. También, un evento que nunca ocurre conducirá al otro caso límite, P(A) = 0, el cual es un evento imposible.

      La interpretación de frecuencia relativa de la probabilidad es objetiva en el sentido que puede verificarse experimentalmente. Suponga, por ejemplo, que se desea probar si una moneda es honesta, esto es, si la probabilidad de cara es igual a 0.5. Para hacerlo, se lanza 1000 veces. Si el número de caras es “casi” 500, se concluye que la moneda en efecto es honesta.

 

2.        Definición Clásica:

      En esta definición, la probabilidad P(A) del evento A se define sin experimentación. Está dada por

                                                                                              

donde N es el número de resultados posibles y NA es el número de resultados que pertenecen al evento A. La probabilidad de un evento se asigna como resultado de un juicio subjetivo. Un ejemplo de esta interpretación es la afirmación ‘hay un 40% de probabilidades de que llueva mañana’, donde se asigna el número 0.4 sobre la base un la información disponible y de la experiencia profesional.

 

3.        Definición Axiomática:

A continuación se introduce la noción de una función de probabilidad. En esta definición axiomática, la probabilidad del evento A, denotada P(A), es un número real finito asignado a cada evento A del espacio muestral S de todos los eventos posibles. El número P(A) se denomina la medida de la probabilidad de A o simplemente la probabilidad de A y se supone que satisface los tres axiomas siguientes:

 

Axioma 1:         (no negativa)                                                                                          

Axioma 2:  La probabilidad del evento cierto es igual a 1:

   (normada)                                                                                          

Axioma 3:   Si dos eventos A y B no tienen elementos en común (son mutuamente excluyentes), la probabilidad del evento  consistente de los resultados que están en A o B es igual a la suma de sus probabilidades:

                                                                                                                                                        

 

Estos axiomas forman la base de la teoría de la probabilidad, aunque no hacen mención de la frecuencia con la cual ocurre un evento. Constituyen un conjunto suficiente de postulados a partir de los cuales se pueden derivar propiedades útiles de la función de probabilidad.

      Usando estos axiomas, se pueden obtener las siguientes leyes de probabilidad útiles:

1.                                                                                        

2.                                                                                  

3.                                                                                              

4.                                                                                                                                                                     

5.                                                                                                                                                          

Observación:  también se denota por .

 

Ejemplo 1. Usando los axiomas de la probabilidad, demuestre (a) la Ec. y (b) la Ec.

 

Solución:

(a)                                                                         

Entonces el uso de los axiomas 1 y 2 da

Así que

(b)     De la Ec. , se tiene que

Ahora, por el axioma 1,  y se concluye entonces que

P(A) £ 1

 

Ejemplo 2. Usar los axiomas de probabilidad para verificar la Ec. .

 

Solución: Se sabe que

Por lo tanto, por el axioma 3,

y se concluye que

 

Ejemplo 3. Usando los axiomas de probabilidad, verifique la Ec. .

 

Solución: Primero se descomponen A È B, A y B como uniones de eventos. A partir del diagrama de Venn de la Fig. 2.2 se obtiene

Entonces, por el axioma 3,

                                                                                                                                                 

                                                                                                                                                                    

                                                                                                                                                                    

 

        Figura 2.2

 

De las Ecs. y , se obtiene

      Sustituyendo estas ecuaciones en la Ec. , se obtiene

 

      Con el enunciado de los axiomas de la probabilidad, se completa la descripción matemática de un experimento aleatorio. Éste consiste de tres constituyentes fundamentales: un espacio muestral S, una colección de eventos A, B, … y la función de probabilidad P. Estas tres cantidades constituyen un espacio de probabilidades asociado con un experimento aleatorio.

      El importante resultado dado por la Ec. puede generalizarse de inmediato a la unión de tres o más eventos. Usando el mismo procedimiento, se puede demostrar, para los eventos arbitrarios A, B y C, que

y, en el caso de n eventos,

                                                                                                                   

donde Aj, j = 1, 2, … , n  son eventos arbitrarios. Si los eventos son mutuamente excluyentes, entonces

                                                                                                                                                                     

 

2.2.6       Probabilidad Condicional

 

El concepto de probabilidad condicional es de mucha utilidad. Algunas veces un evento A depende en alguna forma de otro evento B con P(B) ¹ 0. En el experimento de lanzar un dado, por ejemplo, si se conociese el instante en que el dado golpea la mesa de juego, ¿nos diría esto algo sobre cuál cara del dado salió? Por razones como ésta, la probabilidad de A debe ajustarse cuando se sabe que B ha ocurrido. Como otro ejemplo, supóngase que va a comprar un carro usado. Busca en el periódico, encuentra uno que le gusta y después de una breve inspección se convence de que hay una alta probabilidad de que el carro está en buenas condiciones. Por precaución, se busca un amigo que es un mecánico experto y con él realiza una segunda inspección del automóvil. Su amigo detecta varios problemas de importancia. Como consecuencia, su probabilidad personal de que el carro está en buenas condiciones disminuye. De estas dos ilustraciones se observa un principio general: cuando se obtiene mayor información acerca de un evento, se produce un cambio en su probabilidad. Ahora se introducen las probabilidades condicionales para explicar la dependencia de eventos y también para definir la independencia estadística.

      Supóngase que se tiene un valor para la probabilidad de un evento A, P(A) y también que se obtiene la información de que ha ocurrido otro evento B . Debido al conocimiento que tenemos de B, la probabilidad de A ahora cambia y es condicionada por la ocurrencia de B. La probabilidad condicional de un evento A dado que el evento B ha ocurrido, denotada por , se define por la relación siguiente:

                                                                                                                                                

donde P(B) ¹ 0 y P(A Ç B) es la probabilidad conjunta de A y B. Por ejemplo, si A representa la aparición de dos puntos en el experimento de lanzar un dado y B representa un número par de puntos, la probabilidad de A dado B sería la probabilidad de dos puntos, suponiendo que se sabe que el resultado es bien sea dos, cuatro o seis puntos. De manera que la afirmación condicional ha reducido el número de resultados posibles de seis a tres. Intuitivamente esperaríamos que la respuesta fuese 1/3.

      El uso de la definición dada por la Ec. puede justificarse mediante el enfoque de frecuencias relativas en la forma siguiente. Sean NA, NB y NAB el número de resultados pertenecientes a los eventos A, B y , respectivamente, y sea N el número total de resultados en el espacio muestral. Entonces

     y     

Dado que el evento B ha ocurrido, se sabe  que el resultado está en B. Hay NB resultados en B. Ahora, para que A ocurra dado que B ha ocurrido, el resultado debe pertenecer a ambos A y B. En AÇB se tienen NAB resultados. De modo que la probabilidad de que ocurra A dado que ocurrió B es

      De la definición en la Ec. se obtiene la siguiente regla de Bayes:

                                                                                                                                                           

donde  es la probabilidad condicional de B dado que ocurrió A. Esta regla juega un papel importante en la teoría de decisiones ya que permite invertir el evento condicionante. La regla no tiene sentido si P(A) = 0.

      Se debe señalar que en el estudio de probabilidades condicionales, se está tratando con un espacio muestral contraído en el cual se sabe que A ha ocurrido. En otras palabras, A sustituye a S como el espacio muestran y la probabilidad condicional  se determina como la probabilidad de B con respecto al nuevo espacio muestral.

      De la definición de la probabilidad condicional, Ec. , y la Ec. , se tiene que

                                                                                                                                                                

                                                                                                                                                               

Combinando las Ecs. y da como resultado que

                                                                                                                                                     

a partir de la cual se obtiene la Ec. . Algunas veces es de utilidad extender ésta a tres o más eventos. Por ejemplo,

                                                                                                                                                    

 

Ejemplo 4. Tres cajas idénticas contienen dos monedas cada una. En una caja ambas monedas son de oro, en otra son de plata y en la tercera caja una moneda es de plata y la otra es de oro. Suponga que se selecciona una caja al azar y, además, que en esa caja se selecciona una moneda al azar. Si se observa que esta moneda es de oro, ¿cuál es la probabilidad de que la otra moneda en la caja es también de oro?

 

Solución.  Sea

Aoo el evento que la otra moneda en la caja seleccionada también es de oro (es decir, la caja seleccionada es la caja oo).

Bo el evento que la primera moneda en la caja seleccionada es una moneda de oro.

   La probabilidad buscada es

 

Ejemplo 5. En un juego de barajas, determine la probabilidad de sacar, sin reemplazo, dos aces seguidos.

 

Solución. Suponga que A1 es el evento de que la primera baraja que se sacó es un as, y en forma similar para A2.. Se desea calcular . A partir de la Ec. escribimos

Ahora bien,  y  (quedan 51 barajas y tres de ellas son ases). Por lo tanto,

 

2.2.7    Eventos Independientes

 

Suponga que se plantea la pregunta siguiente: dadas las probabilidades individuales P(A) y P(B) de dos eventos A y B, ¿Cuál es P(AB), la probabilidad de que ocurran ambos A y B? No es difícil ver que el conocimiento de P(A) y P(B) no basta para determinar P(AB) en general. Esto es así porque P(AB) se ocupa del comportamiento conjunto de los dos eventos, en tanto que P(A) y P(B) son probabilidades asociadas con eventos individuales y no dan información sobre su comportamiento conjunto. Considérese entonces un caso especial en el cual la ocurrencia o no ocurrencia de uno no afecta la ocurrencia o no ocurrencia del otro. En esta situación, los eventos A y B se denominan estadísticamente independientes  o simplemente independientes.

   Se dice que dos eventos A y B son (estadísticamente) independientes si y sólo si

                                                                                                                                                               

      Así pues, si A y B son independientes, entonces, por la Ec. ,

                                                                                        

es decir, si A y B son independientes, la probabilidad de A dado que B ocurrió es simplemente la probabilidad de A. El saber que B ha ocurrido no nos dice absolutamente nada sobre la probabilidad de A.

 

Ejemplo 6. En el lanzamiento de un satélite, la probabilidad de que falle el lanzamiento es q. ¿Cuál es la probabilidad de que dos lanzamientos sucesivos fracasen?

 

Solución. Suponiendo que los lanzamientos son eventos independientes, la respuesta a la pregunta anterior es simplemente . Se puede argumentar que estos dos eventos no son realmente completamente independientes, ya que son fabricados usando procesos similares y el proceso de lanzamiento es el mismo. Sin embargo, se acepta esta respuesta como razonable porque, por un lado, la suposición de independencia es aceptable puesto que hay una gran cantidad de incógnitas involucradas y cualquiera de ellas puede ser la causa de la falla de un lanzamiento. Por otra parte, la sencillez de calcular la probabilidad conjunta hace atractiva la suposición de independencia. Por tanto, en problemas físicos, con frecuencia se hace la suposición de independencia siempre que se considere que es razonable.

 

      Sean A1, A2, ... , An eventos definidos en S. Entonces los n eventos son (mutuamente) independientes si y sólo si se cumplen las relaciones

                                                                                                                                            

para todas las combinaciones de los índices tales que

   Como una regla empírica, la independencia física es una condición suficiente para la independencia estadística. De esta manera podemos aplicar la Ec. a situaciones en las cuales los eventos no tienen conexión física.

 

Ejemplo 7.  El gerente de una tienda de computadoras tiene en existencia 100 máquinas de un cierto tipo. Se descubre que 17 de éstas tienen un problema con el disco duro y que 9 tienen monitores defectuosos. Dado que estos dos problemas son independientes, halle la probabilidad de que una máquina seleccionada al azar tenga:

(a)      sólo un problema de disco duro,

(b)     ningún problema.

Solución. Sea H el evento de seleccionar una máquina con problema de disco duro y sea M el evento de que se selecciona un monitor malo. Tenemos entonces que

(a)  Se requiere . Por lo tanto,

(b)                                                          .

 

      Se debe tener cuidado cuando al extender el concepto de independencia a más de dos eventos. Por ejemplo, en el caso de tres eventos, A1, A2 y A3, ellos son mutuamente independientes si y sólo si

                                                                                                                                       

y

                                                                                                                                                             

Se requiere la Ec. ya que la independencia por pares no generalmente conduce a la independencia mutua. Considere por ejemplo, tres eventos A1, A2 y A3 definidos por

donde B1, B2 y B3 son mutuamente excluyentes, y donde cada uno ocurre con probabilidad de ¼. Es muy sencillo calcular lo siguiente:

                                                     

SE ve que la Ec. se satisface para todas j y k en este caso, pero la Ec. no. En otras palabras, los eventos A1, A2 y A3 son independientes por pares pero no son mutuamente independientes.

 

Ejemplo 8. Un sistema consistente de cinco componentes funciona correctamente cuando cada componente está en buenas condiciones. Sea Si, i 1, … , 5, el evento que el i-ésimo componente está funcionando bien y suponga que . ¿Cuál es la probabilidad q de que el sistema falle?

 

Solución. Suponiendo que los cinco componentes trabajan en una forma independiente, es más fácil determinar q hallando la probabilidad de que el sistema trabaje p. Del enunciado del problema se tiene que

Debido a la independencia mutua de S1, S2, … , S5, la Ec. da entonces

y por lo tanto

 

2.2.8       Probabilidad Total

 

      Supóngase que se tienen N eventos A1, A2, ... , AN mutuamente excluyentes y exhaustivos, es decir, se cumplen las relaciones

                                                                                                                                                                 

y

                                                                                                                                                                       

Sea B cualquier evento definido en S. Entonces,

                                                                                                                                                

la cual se conoce como la probabilidad total del evento B.

 

Ejemplo 9. Verifique la Ec. .

   Puesto que B Ç S =B [y usando la Ec. ], tenemos que

                                                                                                                                                   

Ahora bien, los eventos B Ç Ak (k = 1, 2, ... , N) son mutuamente excluyentes, como se observa en el diagrama de Venn de la Fig. 2.3. Entonces, por el axioma 3 de la definición de probabilidad y la Ec. , se obtiene

 

        

 

Figura 2.3

 

Ejemplo 10. En un sistema de comunicación binaria (Fig. 2.4), se transmite un 0 o un 1. Debido al ruido en el canal, un 0 puede ser recibido como un 1 y viceversa. Denote por m0 y m1 los eventos de transmitir 0 y 1, respectivamente y por r0 y r1 los eventos de recibir 0 y 1, respectivamente. Supóngase que P(m0) = 0.5,  y

(a)          Determinar P(r0) y P(r1).

(b)         Si se recibió un 0, ¿cuál es la probabilidad de que se envió un 0?

(c)          Si se recibió un 1, ¿cuál es la probabilidad de que un 1 fue enviado?

(d)         Calcule la probabilidad de error Pe.

(e)          Calcule la probabilidad de que la señal transmitida es leída correctamente en el receptor.

 

 

Figura 2.4  Sistema de comunicación binario.

 

 

Solución:

(a)          De la Fig. 2.4 tenemos que

                                                                  

Usando la Ec. , se obtiene

(b)         Usando la regla de Bayes, Ec. , tenemos

(c)          En la misma forma,

(d)                                      

(e)          La probabilidad de que la señal transmitida sea leída correctamente en el receptor es entonces

 

2.3       Variables Aleatorias y Funciones de Probabilidades

 

Los ingenieros de comunicaciones normalmente están más interesados en procesos aleatorios que producen resultados numéricos – el valor instantáneo de un voltaje de ruido, el número de errores en un mensaje digital, etc. Estos problemas se estudian mejor mediante la definición de una variable aleatoria apropiada.

 

2.3.1    Variables Aleatorias

 

      En un sistema de comunicación la señal recibida siempre es una señal aleatoria debido al hecho de que la señal transmitida está sometida a distorsión en el canal y, además, porque está contaminada por el ruido y posiblemente por interferencia provocada o no. Por lo tanto, el análisis del desempeño de una señal de comunicaciones no puede basarse únicamente en la teoría desarrollada para señales deterministas. La mayoría de los experimentos de interés práctico tienen resultados numéricos; esto es, el resultado del experimento es un número, o un par de números, etc. Por ejemplo, cuando los resultados posibles de un experimento aleatorio consisten de éxito y fracaso, asignamos arbitrariamente el número uno al evento ‘éxito’ y el número cero al evento ‘fracaso’. El espacio muestral asociado tiene ahora a {1, 0} como sus puntos de muestra en vez de éxito y fracaso y la afirmación ‘el resultado es 1’ significa ‘el resultado es ‘éxito’. Este procedimiento no sólo permite reemplazar un espacio muestral de elementos arbitrarios por un nuevo espacio muestral formado solamente por números reales sino que permite utilizar medios aritméticos para los cálculos de probabilidades.

      Considérese un experimento aleatorio en el cual los resultados son elementos de un espacio muestral S. Para construir un modelo para una variable aleatoria, se supone que es posible asignar un número real X(l) a cada resultado l siguiendo un cierto conjunto de reglas. Se ve que el “número” X(l) es una función puntual real definida en el dominio del espacio de probabilidades básico, el espacio muestral del experimento.

      Entonces, una variable aleatoria X(l) es una función (regla, transformación o relación) real y unívoca definida en el espacio muestral S de un experimento aleatorio que asigna un número en la recta real, llamado el valor de X(l), a todo punto de muestra (resultado) l del espacio muestral S de modo que

1.        El conjunto {l: X(l) £ x} es un evento para todo número real x.

2.        P{l: X(l) = -¥} = 0 y P{l: X(l) £ ¥} = 1

      La condición 1 es la llamada “condición de mesurabilidad”. Asegura que tiene sentido considerar la probabilidad del evento X(l) £ x para toda x. La relación  transforma cada elemento l en S del espacio de probabilidad en un punto X en la línea real ¡ = (-¥, ¥).

      Casi cualquier relación puede servir como una variable aleatoria siempre que cumpla con las dos condiciones anteriores. Por ejemplo, si el experimento consistiese de escoger “al azar” una baraja de un paquete de 52, el número de resultados posibles en cualquier ensayo sería 52, dependiendo de cuál de las barajas se escogió. Aquí, aunque el resultado no proporciona un resultado numérico, podemos los resultados posibles se pueden representar por, digamos, los primeros 52 enteros o mediante 52 puntos en una recta.

       Se usarán letras mayúsculas para denotar variables aleatorias y letras minúsculas para denotar los valores fijos de las variables aleatorias (es decir, números reales). Aunque detrás de toda variable aleatoria existe una relación de transformación, usualmente la preocupación son los números resultantes. Por ello se adoptará un punto de vista más directo y se tratará a la propia X como el símbolo general para los resultados experimentales. Este punto de vista permite trabajar con eventos valorados numéricamente tales como X = a o X £ a, donde a es algún punto en la línea real. También, si se reemplaza la constante a por la variable independiente x, entonces se obtienen funciones de probabilidades que ayudan a calcular las probabilidades de eventos valorados numéricamente.

      Así pues, la variable aleatoria X induce una medida de probabilidad sobre la línea real en la forma siguiente:

                                                                           

Si X puede tomar solamente un número contable de valores distintos en el espacio muestral, entonces X se llama una variable aleatoria discreta; es decir, es una función que le asigna un número real x a cada resultado en S. Si X puede tomar un continuo de valores (un número infinito incontable de puntos de muestra) dentro de uno o más intervalos en la línea real, entonces X se denomina una variable aleatoria continua. Se hace esta distinción porque ellas requieren consideraciones diferentes en la asignación de probabilidades. El número de llamadas telefónicas que llegan a una oficina es un ejemplo de una variable aleatoria discreta, y el tiempo exacto de la llamada es un ejemplo de una variable aleatoria continua.

      El lanzamiento de un dado no cargado constituye un experimento aleatorio. El espacio muestral tiene seis eventos de interés. La variable aleatoria asociada tiene solamente seis posibles valores numéricos: 1, 2, 3, 4, 5 y 6. Cada uno de estos números reales corresponde a un evento específico.

 

Ejemplo 11. Se lanzan dos dados limpios. ¿Qué suma de los números de las caras en los dos dados tiene la probabilidad máxima?

Solución. Puesto que cada dado tiene seis caras, el principio básico del conteo dice que S tiene 36 resultados de un total de  eventos. Para resolver el problema, se calculan todas las probabilidades , donde x varía desde 2 hasta 12. Se encuentra que

 

y se tiene que X = 7 es la mejor apuesta. Observe que el uso de la variable aleatoria X ha permitido revisar sin mucho esfuerzo los  eventos y aislar los 11 que son relevantes para este problema.

      Hay algunas variables aleatorias que aparecen con frecuencia en muchos contextos diferentes y tienen sus propios nombres.

 

Variable Aleatoria Uniforme. Ésta es una variable aleatoria X para la cual

Las variables aleatorias uniformes surgen naturalmente cuando se aplica el principio de simetría. Un ejemplo es el lanzamiento de un dado honesto y tomando

En este caso el espacio muestral es R ={1, 2, 3, 4, 5, 6} y b = 6.

 

Variables Aleatorias de Bernoulli. Aquí el espacio es R = {0, 1} y definimos

Ejemplos de este tipo de variables aleatorias incluyen el lanzamiento de un dado cargado o la emisión de símbolos en un canal binario simétrico.

      Una variable aleatoria de Bernoulli es uniforme si y sólo si , de manera que ambos 0 y 1 son equiprobables.

 

Ejemplo 12. Una caja contiene cinco bolas rojas y siete azules. En cualquier otro respecto, las bolas son idénticas. ¿Cuál es la probabilidad de que una bola escogida aleatoriamente sea roja? ¿Cuál es una variable aleatoria apropiada para describir esta situación?

Solución. Tenemos un espacio muestral S que contiene doce miembros. El evento de que escojamos una bola roja tiene cinco miembros, por tanto, por el principio de simetría, la probabilidad requerida es . Ahora se introduce la variable aleatoria X con la interpretación 1 ® = ‘roja’ y 0 ® ‘azul’; entonces X es Bernoulli con .

2.3.2    Función de Distribución

 

Una vez asignada la variable aleatoria, es posible realizar muchas formas de análisis. Se podría, por ejemplo, graficar las diferentes probabilidades de los resultados en función de la variable aleatoria. Una extensión de ese tipo de gráfica es la función de distribución.

      La conducta de una variable aleatoria es caracterizada por su distribución de probabilidades, es decir, por la forma en que las probabilidades están distribuidas sobre los valores que asume. Una función de distribución de probabilidades y una función de probabilidad de masa son dos formas de caracterizar esta distribución para una variable aleatoria discreta. Ellas son equivalentes en el sentido de que el conocimiento de cualquiera de ellas especifica completamente la variable aleatoria. Las funciones correspondientes para una variable aleatoria continua son la función de distribución de probabilidades, definida en la misma forma que en el caso de una variable aleatoria discreta, y la función de densidad de probabilidades.

      Considérese el espacio muestral S de un experimento aleatorio. Si los resultados de este experimento pueden ponerse en una correspondencia uno a uno con los enteros positivos, el espacio muestral contendrá un número contable de puntos. Se dice que un espacio así es un espacio muestral discreto.

      Dado un experimento aleatorio con su variable aleatoria asociada X y dado un número real x, considérese la probabilidad del evento  o, simplemente, . Esta probabilidad depende claramente del valor asignado x. La función de distribución acumulativa (FDA), o simplemente la función de distribución, de la variable aleatoria X se define, para cualquier número real x,  como la función

                                                                                    

definida para toda x desde -¥ hasta +¥. Observe la notación con cuidado; el subíndice X identifica la variable aleatoria cuyas características determinan la función de distribución FX(x), en tanto que el argumento x define el evento X £ x de modo que x no es una variable aleatoria. Algunas veces se omite el subíndice cuando no existen riesgos de confusión. Por ejemplo, el lanzamiento de una moneda no cargada hasta que salga una cara es un experimento aleatorio. La variable x podría reemplazarse por cualquier otra variable. El espacio muestral de este experimento es un espacio discreto. X corresponde al evento de la aparición de la primera cara en el k-ésimo lanzamiento. Entonces X toma los valores

      La FDA es entonces la probabilidad de que X tomará un valor que está en un subconjunto de S, donde el subconjunto es el punto x y todos los puntos que están a la ‘izquierda’ de x. Conforme x aumenta, el subconjunto incluye una mayor parte de la línea real y el valor de la FDA aumenta hasta alcanzar el valor de 1. De modo que la FDA de una variable aleatoria acumula la probabilidad a medida que x aumenta y de allí el nombre de función de distribución acumulativa (FDA).

 Puesto que la FDA representa una probabilidad, debe tener las siguientes propiedades.

 

Propiedades de la función FX(x):

1.                                                                                    

puesto que el evento {X £ -¥} es imposible.

 

2.                                                                                     

puesto que el evento {X < ¥} es cierto.

3.                                                                                       

ya que FX(x) es una probabilidad.

4.  La función FX(x) es monótona creciente; esto es,

                                                                                                                                                                    

5.                                                                                                                                                           

 Esta relación es un resultado directo de la identidad

6.                                                                                                                               

es decir, la función FX es continua por la derecha.

 

Las propiedades y establecen que la FDA existe para variables aleatorias discretas y continuas y tiene valores entre 0 y 1. Es una función no negativa, continua desde la izquierda y no decreciente de la variable real x.

      Algunas veces, la distribución acumulativa es más útil que la ley de probabilidades en la solución de problemas prácticos.

 

Ejemplo 13. Sea X una variable aleatoria discreta que toma los valores -1, 1, 2 y 3 con probabilidades  y , respectivamente. Entonces la función de distribución está definida por

La función se grafica en la Fig. 2.5. Es típico que una FDA asociada con una variable aleatoria discreta, que sea creciente de 0 a 1, tenga una forma de “escalera”.

-2

-1

0

1

2

3

1/8

1/2

1

FX(x)

x

     

 

Figura 2.5  FDA de X para el Ejemplo 9.

 

      Una variable aleatoria continua toma un número de valores no numerables de la línea real. Por tanto, la probabilidad de que una variable aleatoria continua asuma cualquier valor en particular es igual a cero y por tanto para su FDA no hay posibilidad de saltos discretos. El ejemplo siguiente ilustra una función de distribución típica para variables aleatorias continuas.

 

Ejemplo 14. Determine los valores de las constantes a y b de modo que

sea una función de distribución válida.

Solución: Puesto que u(-¥) = 0, se satisface la propiedad 1 de FX(x) [Ec. . La propiedad 2 de FX(x) [Ec. ] se satisface si b > 0. Para cumplir con la propiedad 3 de FX(x), se debe tener que .

      FX(x) se grafica en la Fig. 2.6 para  y b > 0. En la figura se observa que se satisfacen todas las otras propiedades de FX(x) [Ecs. y ].

 

FX(x)

0

x

1

               Figura 2.6

 

2.3.3       Función de Densidad

 

      Una variable aleatoria continua toma un número incontable de valores sobre la línea real. Puesto que una variable aleatoria continua tiene un número incontable de valores posibles, la probabilidad de observar cualquier valor particular X = a debe ser infinitesimalmente pequeña en el sentido que  para cualquier valor especifico de a y, por lo tanto, no hay saltos posibles para la distribución de la variable, como en el caso de la variable aleatoria discreta. En consecuencia, las funciones de frecuencia como PX(xi) = P(x = xi) no tienen ningún significado para variables aleatorias continuas. No obstante, eventos tales como X £ a y a < X £ b pueden tener probabilidades diferentes de cero y FX(x) todavía proporciona información útil. En efecto, las propiedades expresadas anteriormente en las Ecs. a permanecen válidas para la FDA de una variable aleatoria continua. Pero una descripción más común de una variable aleatoria continua X es su función de densidad de probabilidad (fdp) o simplemente la función de densidad, la cual se define como la derivada de la función de distribución,

                                                                                      

y como la derivada de FX es única, se deduce que una variable aleatoria no puede tener más de una fdp.

 

Propiedades de fX(x):

1.  Puesto que FX(x) es monótona decreciente, claramente se tiene que

                                                                                                

2.                                                                                 

3.                                                                                                                                                                     

4.                                                                                                                                                              

Si X es discreta, entonces

                                                                                                                                                                    

donde P(xi) = P(X = xi) y d(x) es la función impulso.

 

Ejemplo 15. La fdp de una variable aleatoria X la da la relación

donde k es una constante.

(a)      Determine el valor de k.

(b)     Sean a = -1 y b = 2. Calcule  para c = 1/2.

Solución:

(a)      Por la propiedad 1 de fX(x) [Ec. ], k debe ser una constante positiva. De la propiedad 2 de fX(x), Ec. ,

a partir de la cual se obtiene . De modo que

Una variable aleatoria X que tenga la fdp anterior se denomina una variable aleatoria uniforme y la distribución de denomina una distribución uniforme en (a, b). Usando la Ec. se obtiene la distribución acumulativa como

 

(b)     Con a = -1 y b = 2, se tiene que

la cual se grafica en la Fig. 2.7. De la Ec. se obtiene que

 

1

2

–1

0

x

fX(x)

    

 

Figura 2.7  Distribución uniforme.

 

Ejemplo 16.  Una variable aleatoria X para la cual la función de densidad tiene la forma :

se dice que está distribuida exponencialmente. Se puede verificar fácilmente que se satisfacen todas las condiciones dadas por las Ecs. a . La fdp se grafica en la Fig. 2.8(a) y la FDA asociada se muestra en la Fig. 2.8(b). La forma funcional de la FDA es

 

Ahora se calcularán algunas de las probabilidades usando . La probabilidad  es numéricamente igual al área bajo  desde x = 0 hasta x = 1, como muestra la Fig. 2.8(a), y es dada por

 

     

 

Figura 2.8  (a) fdp fX(x)  y (b) función de distribución FX(x) para la variable aleatoria X.

 

La probabilidad  se obtiene calculando el área bajo  a la derecha de x = 3. Por lo tanto,

      Las mismas probabilidades se pueden obtener a partir de  tomando las diferencias apropiadas y se obtiene:

      Observe que no hay diferencia numérica entre  y  para variables aleatorias continuas, puesto que

 

2.3.4       Función de Distribución Conjunta

 

      A continuación se estudiará brevemente el caso de dos variables aleatorias que pueden ser observadas en forma simultánea. Un ejemplo clásico de esta situación es el experimento del lanzamiento de dardos, donde X y Y son las coordenadas rectangulares de la posición del dardo en relación con el centro del blanco. Otro ejemplo es la caracterización del peso y la altura en una población dada. En estas situaciones, dos o más variables aleatorias se consideran a la vez y el interés está la descripción de su comportamiento conjunto. Supóngase que las dos variables aleatorias X y Y están definidas en el espacio S. El evento  está compuesto de todos los resultados l en S tales que  y Y(l) £ y.

      Considérese ahora el caso de dos variables aleatorias X y Y. La función de distribución acumulativa conjunta (FDA conjunta) de X y Y se denota por  y es la función

                                                                                                                                                                 

definida para toda x y y desde -¥ hasta +¥. Es la probabilidad de la intersección de dos eventos. Puesto que   y  son eventos ciertos, se obtiene

                                                                                                                                          

de modo que

                                                                                  

                                                                                  

   y

                                                                                        

      Las Ecs. y muestran que las funciones de distribución de variables aleatorias individuales se pueden deducir directamente a partir de su función de distribución conjunta. Por supuesto, lo contrario no es cierto. En el contexto de varias variables aleatorias, estas funciones de distribución individuales se denominan funciones de distribución marginales. Por ejemplo, FX(x) es la función de distribución marginal de X.

      Supóngase que la función de distribución conjunta  es continua en todas partes. La función de densidad de probabilidades conjunta (fdp conjunta) de X y Y se define mediante la derivada parcial

                                                                                                                                                                    

La función de distribución conjunta  es una función monótona no decreciente de ambas variables x y y. Por lo tanto, de la Ec. se deduce que  es siempre no negativa, es decir,

                                                                                          

Integrando dos veces la Ec. , se obtiene

                                                                                                                                                            

y

                                                                                                                                                    

Es decir, el volumen total bajo la gráfica de una función de densidad de probabilidades conjunta es igual a la unidad. También, con x1 < x2 y y1 < y2,

                                                                                                                              

 

Ejemplo 17. La fdp conjunta de X y Y está dada por

donde a y b son constantes positivas y la función escalón unitario se define por

                                                                                    

 Determínese el valor de la constante k.

 

Solución: El valor de k se determina a partir de la Ec. , es decir,

Por lo tanto, k = ab.

 

2.3.5    Distribuciones Marginales

 

      En el estudio de las propiedades conjuntas de varias variables aleatorias, las funciones FX(x) y FY(y), por ejemplo, se denominan distribuciones acumulativas de probabilidades marginales si son deducidas a partir de las relaciones

                                                                                                                                                

                                                                                                                                                

Las funciones de densidades de probabilidades marginales (fdp marginales) fX(x) y fY(y) son dadas por

Así pues, al diferenciar las Ecs. y , se obtiene

                                                                                                                                                                      

                                                                                                                                                                

Es decir, la fdp para X solamente, por ejemplo, se puede obtener a partir de la fdp conjunta observando que  = P(X £ x, -¥ < Y < ¥) ya que el valor de Y no importa cuando sólo interesa X. De lo anterior se deduce que la función de densidad fXY(x, y) contiene toda la información posible sobre las variables aleatorias conjuntas X y Y.

 

Ejemplo 18. En los análisis de confiabilidad estructural, la resistencia Y de un elemento estructural y la fuerza X aplicada al elemento generalmente se consideran como variables aleatorias. La probabilidad de falla, pf, se define como . Supóngase que la fdp conjunta de X y Y se especifica como

donde a y b son constantes positivas conocidas. Se desea determinar pf.

      La probabilidad pf se determina a partir de

en la cual R es la región que satisface la condición Y £ X. Puesto que X y Y sólo toman valores positivos, la región R es la mostrada en la Fig. 2.9. Por tanto,

 

R

X = Y

X

Y

 

Figura 2.9  Región R para el Ejemplo14.

 

Ejemplo 19. La fdp conjunta de dos voltajes de ruido es

Por la Ec. , la fdp marginal para X solamente es

donde se hizo el cambio de variable . En la misma forma,

Como se demostrará más adelante, las variables X y Y no son independientes ya que .

 

Ejemplo 20.  Se dice que las variables aleatorias X y Y son normales conjuntas si su fdp conjunta está dada por

                                                                                          

(a)      Halle las fdp marginales de X y Y.

(b)     Demostrar que X y Y son independientes cuando r = 0.

 

Solución:

(a)      Por la Ec. , la fdp marginal de X es

Completando el cuadrado en el exponente de la Ec. , se obtiene

                

Como se verá más adelante, ésta es una fdp normal. Así que la integral debe ser igual a uno y se obtiene

                                                                                                                                                 

En una forma similar,

                                                                                                                   

(b)     Cuando r = 0, la Ec. se reduce a

                                          

                                                          

                                                           

Por lo tanto, X y Y son independientes.

 

2.3.6       Distribución Condicional

 

   La función de distribución acumulativa de la probabilidad condicional de X dado el evento B se define como

                                                                                                                                     

donde P(X £ x, B) es la probabilidad del evento conjunto .

   La función de densidad de la probabilidad condicional (fdp condicional) de X dado B es simplemente

                                                                                                                                                                        

Sean X y Y dos variables aleatorias definidas en S. Entonces, usando la definición de la probabilidad condicional, la fdp condicional de X dado el evento  es

                                                                                                                                                         

donde fY(y) es la fdp marginal de Y.

                                                                                  

2.3.7    Variables Aleatorias Independientes

 

      Las variables aleatorias X y Y se denominan independientes si

                                                                                                                                                                       

o

                                                                                                                                                                       

esto es, su fdp conjunta es el producto de sus fdp marginales. Así pues, si X y Y son independientes, entonces de las Ecs. y ,

                                                                                  

 

2.4       Funciones de Variables Aleatorias

 

Ahora se desarrollará una expresión general para la función de distribución resultante cuando la nueva variable aleatoria es una función de otra variable aleatoria con una función de distribución conocida.

 

2.4.1       La Variable Aleatoria g(X)

 

Recuerde del cálculo que una función compuesta  es una función g(x) de otra función x(t). El dominio de y(t) es el eje t. Una función de una variable aleatoria es una extensión de este concepto a funciones cuyo dominio es un espacio de probabilidades.

   Dada una variable aleatoria X con función de densidad conocida y una función g(x), la expresión

                                                                                                  

es una nueva variable aleatoria Y (se supone que ésta es una función continua de X). Para un valor de l dada en S, X(l) es un número y g[X(l)] es otro número, que es el valor de Y(l) = g[X(l)] asignado a la variable aleatoria y. Entonces

                                                                                                                                                                 

 

2.4.2       Determinación de fY(Y)

 

   Supóngase que se conoce fX(x) y se desea determinar fY(y) para la variable aleatoria relacionada con X por la Ec. . El evento  se corresponde con el evento , donde

Los dos eventos son idénticos puesto que ellos incluyen los mismos resultados. Por el momento se supone que g(x) es una función unívoca. Como los eventos son idénticos, sus probabilidades deben ser iguales, es decir,

                                                                                                                                                                

y, en función de las densidades,

                                                                                                                                                                        

Si ahora se toma x2 muy cerca de x1, en el límite la Ec. se convierte en

y, finalmente,

                                                                                    

Si y1 > y2 , la pendiente de la curva es negativa y se encontraría que

Se pueden incluir ambos casos escribiendo

Finalmente, si se escribe  y como y1 puede tomar cualquier valor (es decir, se puede reemplazar por la variable y), se tiene que

                                                                                                                                                                         

   Si la función g(x) no es monótona, el evento  puede corresponder a más de un intervalo de la variable X. Por ejemplo, si , entonces el evento  es igual que el evento  o . Por lo tanto,

En términos de las funciones de densidad, esto significaría que  tiene dos valores. Denotando estos valores como xa y xb, entonces

                                                                                                                                                          

 

Como se ve en este ejemplo, dos o más valores de X producen el mismo valor de Y. Para hallar la fdp correspondiente fY(y), se subdivide g(x) en un conjunto de funciones monótonas definidas en intervalos de x diferentes y se resuelve la ecuación y = g(x). Denotando sus raíces reales por xk, se tiene que

                                                                                                                                                                    

Por tanto

                                                                                                                                                                         

donde g'(x) es la derivada de g(x). Esta relación es válida para cualquier función monótona.

      Examínese ahora, como ejemplo, la sencilla relación

                                                                                  

La transformación  se presenta gráficamente en la Fig. 2.10.

      Considérese la FDA de Y, , la cual está definida por

                                                                                      

La región definida por Y £ y en el recorrido de Y cubre la porción gruesa de la curva de transformación, como se muestra en la Fig. 2.10, que, en el recorrido de X, corresponde a la región  o , donde

es la función inversa de g(x), o la solución de x en la Ec. en términos de y. Por lo tanto,

                                                                                                                   

La Ec. da la relación entre la fdp de X y la de Y, el resultado que se busca.

 

       Figura 2.10

 

      La relación entre las fdp de X y Y se obtiene diferenciando ambos lados de la Ec. con respecto a y. Se obtiene

                                                                                                                          

   Está claro que las Ecs. y se cumple no sólo para la transformación particular dada por la Ec. , sino para todas las funciones  continuas que sean funciones estrictamente monótonas crecientes de x, esto es,  siempre que x2 > x1.

 

Ejemplo 21. Un voltaje aleatorio v se pasa a través de un rectificador de onda completa. El voltaje de entrada está distribuido uniformemente entre -2 y +2 V. Halle la densidad de la salida del rectificador de onda completa.

 

g(v)

fV (v)

v

v

-2

2

  

 

Figura 2.11

 

Solución: Denotando la salida por y, se tiene entonces que y = g(v), donde g(v) tiene la densidad V y se ilustra en la Fig. 2.11. Obsérvese que la variable aleatoria se ha tomado igual al valor del voltaje. Para cada valor de V, . Para y > 0, . Para y < 0,  no está definida. Es decir, no hay valores de v para los cuales g(v) sea negativa. Se usa entonces la Ec. para hallar

El resultado se muestra en la Fig. 2.12.

 

2

y

0

fY(y)

       Figura 2.12

 

Ejemplo 22. Sea Y = 2X + 3. Si una variable aleatoria X está distribuida uniformemente en ; determine fY(y) y dibuje fX(x) y fY(y).

 

Solución: Del Ejemplo 7 se sabe que

La ecuación y = g(x) = 2x + 3 tiene una sola solución x1 = (y - 3)/2, el intervalo de y es [1, 7] y g'(x) = 2. Así que   y por la Ec. ,

Las fdp fX(x) y fY(y) se muestran en la Fig. 2.13.

 

0

y

x

1/3

2

1

–1

0

fY(x)

fX(x)

1

7

3

5

 

Figura 2.13

 

Ejemplo 23.  La fdp de una variable aleatoria X es dada por la distribución de Cauchy:

Determine la fdp de Y si

 

Solución: La transformación dada por esta última ecuación es estrictamente monótona. Por tanto, se puede aplicar la Ec. y se tiene que

y

y siguiendo la Ec. , el resultado es

 

2.4.3     Una Función de Dos Variables Aleatorias

 

   Dadas dos variables aleatorias X y Y y una función g(x, y), la expresión

                                                                                            

es una nueva variable aleatoria. Con z un número dado, se denota por Dz la región del plano xy tal que . Entonces

donde {(X, Y) Î Dz} es el evento consistente de todos los resultados l tales que el punto [X(l)Y(l)] está en Dz. Por tanto,

                                                                                                                            

La fdp de Z puede determinarse a partir de la relación

                                                                                    

      Supóngase que , donde X y Y son variables aleatorias independientes. Se desea encontrar la función de densidad de Z en términos de las densidades de X y Y. Se comienza por hallar la función de distribución de la variable suma Z. La probabilidad de que Z sea menor que alguna cantidad z0 es la probabilidad de que . Ésta es la probabilidad de que x y y caiga en el interior de la región sombreada de la Fig. 2.14. La probabilidad de caer en esta región es

                                                                                                                                                               

donde  es una función de densidad bidimensional. En una dimensión, la probabilidad de que una variable esté en un cierto intervalo se determina integrando la función de densidad en ese intervalo. En más de una dimensión, la  probabilidad de que la variable esté en alguna región multidimensional es simplemente la integral múltiple de la densidad en esa región. En la Ec. , se integra la densidad bidimensional en la región especificada en el plano xy.

 

z0

y

x

z0

   

 

Figura 2.14  Región para la cual .

 

      Se sabe que si los eventos son independientes, la probabilidad de su combinación es el producto de las probabilidades. Así fue cómo se determinó que la probabilidad CS (cara-sello) en el experimento del lanzamiento de la moneda es . La extensión a densidades multidimensionales es que si las variables son independientes, la densidad multidimensional es el producto de las densidades de una dimensión individuales.

      En la Ec. si x y y son independientes,  es el producto de  y  y la ecuación se convierte en

                                                                                                                                                       

   Ahora se diferencia la Ec. para hallar la función de densidad:

                                                                                                                                                              

      La Ec. tiene una interpretación muy sencilla. La densidad de la suma de dos variables aleatorias independientes es igual a la convolución de las dos densidades individuales.

 

2.4.4     Dos Funciones De Dos Variables Aleatorias

 

      Dadas las variables aleatorias X y Y con fdp conjunta fXY(x, y) y dos funciones g(x, y) y ,  se forman las nuevas variables aleatorias

                                                                                                                                                               

Para hallar la fdp conjunta fZW(z, w), se resuelve el sistema

                                                                                                                                                                 

Denotando por (xk, yk) sus raíces

z = g(xk, yk)               w = h(xk, yk)

entonces

                                                                                                                    

donde

                                                                                                                                      

y J(x, y) es el jacobiano de la transformación .

 

2.5       Promedios Estadísticos

 

Para algunos propósitos, una función de probabilidad proporciona más información sobre una variable aleatoria que la que realmente se necesita. En efecto, la descripción completa de una variable aleatoria, muchas veces puede resultar más confusa que instructiva. Por ello, con frecuencia es más conveniente describir una variable aleatoria mediante algunos números característicos. Estos números son los diferentes promedios estadísticos que se presentan a continuación. Estos promedios son importantes en el estudio de las comunicaciones.

 

2.5.1    Valor Esperado

 

      El valor esperado, media o primer momento de una variable aleatoria continua X es una constante que es igual a la integral de los valores de X ponderados por su función de probabilidades, es decir,

                                                                                                                                                                  

Si X es discreta, entonces usando la Ec. se tiene que

                                                                                                                     

Para un caso igualmente probable, es decir, cuando P(xi) = 1/N (i = 1, 2, ... , N), la Ec. se convierte en el promedio aritmético de xi:

                                                                                      

      La operación de determinar el valor esperado de X, E[X], también se conoce como la operación de esperanza que produce .

  El valor esperado de la variable aleatoria Y proveniente de la transformación Y = g(X) está dado por

                                                                                                                                                                       

o

                                                                                                                                                        

Si X es discreta, entonces, igual que en la Ec. . la Ec. da

                                                                                                                                                                    

El valor esperado de Z = g(X, Y) está dado por

                                                                                                                                                                       

o

                                                                                                                                

Si X y Y son variables aleatorias discretas, la Ec. da

                                                                                                                                                   

donde P(xi, yk) = P[X = xi, Y = yk].

   Observe que la operación de esperanza es lineal, es decir,

                                                                                                                                                                      

                                                                                      

donde c es una constante.

 

Ejemplo 24. Para la distribución exponencial con parámetro l

y 0 £ x < ¥, su valor esperado es

 

 

2.5.2    Momentos y Varianza

 

   Sea , n = 1, 2, … ; El n-ésimo momento de X, cuando existe, se define por

                                                                                                                                                                

o, para una variable aleatoria discreta,

                                                                              

El segundo momento  o  se denomina el valor cuadrático medio, para distinguirlo de la media al cuadrado  y se define como

o, para una variable aleatoria discreta usando la sumatoria análoga,

El valor cuadrático medio será de particular importancia cuando se estudien señales aleatorias y ruido.

   El n-ésimo momento central de X se define por

                                                                                                                                                   

donde mX = E[X].

      El segundo momento central de X se denomina la varianza de X, es decir,

                                                                                                                                                     

La raíz cuadrada positiva de la varianza, denotada sX, se denomina la desviación estándar de X. La varianza o la desviación estándar es una medida de la “dispersión” de los valores de X en relación con su media mX. Valores grandes de  implican una gran dispersión de X con respecto a su media. Una ventaja de usar  en vez de  como una medida de la dispersión es que tiene la misma unidad que la media. Por lo tanto, se puede comparar ambas usando la misma escala para obtener alguna medida del grado de dispersión de la distribución. Usando las Ecs. y , la expresión en la Ec. puede simplificarse a

o

                                                                                                                                                                     

Por tanto, la desviación estándar es igual a la raíz cuadrada del valor cuadrático medio menos el valor medio al cuadrado.

      Como una interpretación de , sea k cualquier número positivo y considere el evento . La desigualdad de Chebyshev establece que

                                                                                                                                                                     

indiferente de . Así, la probabilidad de observar cualquier variable aleatoria más allá de  desviaciones estándar de su media no es mayor que . Por la misma razón,

                                                                                                                                                                   

Con k = 2, por ejemplo, se espera que k ocurra dentro de la banda  para más de  de las observaciones. De manera que una pequeña desviación estándar implica una pequeña dispersión de valores posibles y viceversa.

      La demostración de se deja como un ejercicio.

 

Ejemplo 25. Para ilustrar el cálculo de promedios estadísticos, se considerarán tres ejemplos:

1.  Supóngase que la variable aleatoria X está distribuida uniformemente, como muestra la Fig. 2.15. Determinar , ,  y .

 Solución:

                                                              

                                                            

                                                       

      

 

x

fX(x)

2p

   

 

Figura 2.15

 

 2. Tómese el caso donde

con a una constante positiva. Esta fdp describe una variable aleatoria continua con una distribución de Laplace.

   Usando la simetría de fX(x), se determina entonces que

En consecuencia,

3.  El tiempo de espera X (en minutos) de un cliente para pagar cierto servicio tiene la función de densidad

 

Determínese el tiempo de espera promedio.

Por la Ec. , integrando por partes se obtiene

 

 

2.5.3    Momentos Conjuntos y Covarianza

 

   Sean X y Y dos variables aleatorias con fdp conjunta fXY(x, y). El momento conjunto de X y Y se define por

                                                                                                                                      

donde n y k son enteros positivos cualesquiera. La suma n + k se llama el orden del momento.

      Un momento conjunto para el caso especial n = k = 1 se denomina la correlación de X y Y, denotada por RXY:

                                                                                                                                                                         

La covarianza de X y Y es simplemente la correlación menos su valor medio, es decir,

                                                                                                                                                                   

Expandiendo la Ec. , obtenemos que la correlación y la covarianza están relacionadas por

                                                                                                                                                    

El coeficiente de correlación de X y Y se define por

                                                                                        

donde sX y sY son las desviaciones estándar de X y Y, respectivamente.

 

Ejemplo 26. Sean X y Y variables aleatorias reales con segundos momentos finitos. Demuestre que

                                                                                                                                                                    

Ésta se conoce como la desigualdad de Cauchy-Schwarz.                       

 

Solución: Como el valor cuadrático medio de una variable aleatoria nunca puede ser negativo, se tiene entonces que

para cualquier valor de a. Expandiendo esta relación, se obtiene

Escójase un valor de a para el cual el lado izquierdo de esta desigualdad sea mínimo, es decir, tome

lo que resulta en la desigualdad

o

 

Ejemplo 27. Demuestre que

                                                                                                                                                                  

 

Solución:  De la desigualdad de Cauchy- Schwarz, Ec. , se obtiene la relación

o

Entonces

de donde se deduce que

 

   Se dice que dos variables aleatorias X y Y no están correlacionadas si y sólo si su covariancia es cero, es decir,

                                                                                                

De las Ecs. y se concluye que X y Y no están correlacionadas si y sólo si

                                                                                                                                                                        

   Dos variables aleatorias X y Y se denominan ortogonales si

                                                                                

De la Ec. es obvio que si X y Y son variables aleatorias no correlacionadas con valores medios iguales a cero, entonces X y Y no pueden ser ortogonales.

   Debemos recalcar una vez más que el coeficiente de correlación mide solamente la interdependencia lineal entre dos variables aleatorias. De ninguna manera es una medida general de la interdependencia lineal entre X y Y. Así, r = 0 no implica la independencia de las variables aleatorias.

 

2.5.4    Función Generadora de Momentos

 

   La función generadora de momentos de una variable aleatoria X se define por

                                                                                                                                                          

donde l es una variable real. Entonces

                                                                                                                                                      

donde

 

2.5.5    Funciones Características

 

   La función característica de una variable aleatoria X es una esperanza que involucra una variable auxiliar w y se define por

                                                                                                                                                      

donde w es una variable real. Esta función es máxima en el origen y

                                                                                                                                                                       

Como se ve en la Ec. , FX(w) es la transformada de Fourier (con el signo de j invertido) de fX(x). Es decir, la función característica y la fdp de una variable aleatoria constituyen un par de transformadas de Fourier. Debido a este hecho, si se conoce FX(w), fX(x) puede determinarse a partir de la transformada de Fourier inversa:

                                                                                                                                                               

   La función característica conjunta de X y Y se define por la relación

                                                                                                     

donde w1 y w2 son variables reales. Esta expresión se conoce como la transformada de Fourier bidimensional (con el signo de j invertido) de fXY(x, y). De la transformada de Fourier inversa se obtiene

                                                                                                                 

De las Ecs. y se tiene que

                                                                                                                                                                        

                                                                                                                                                                         

las cuales se denominan funciones características marginales.

   Ahora, para la fdp de una suma de variables aleatorias independientes, sea Z = X + Y y se usa la Ec. para escribir

Entonces, por el teorema de la convolución, se tiene que

Un cambio de variables produce el resultado final

Así pues, la fdp de X + Y es igual a la convolución de fX(x) y fY(y) cuando X y Y son independientes.

 

2.6       Distribuciones Especiales de Uso Frecuente

 

Ensayos de Bernoulli. Muchas situaciones prácticas pueden describirse mediante la realización repetida de un experimento de la naturaleza básica siguiente: se realiza una secuencia de ensayos de modo que (a) para cada ensayo sólo hay dos resultados posibles, dígase, éxito y fracaso (no éxito); (b) las probabilidades de que ocurran estos resultados permanecen iguales durante todos los ensayos; y (c) los ensayos se realizan en forma independiente. Los ensayos realizados bajos estas condiciones se denominan ensayos de Bernoulli (ya mencionados anteriormente). A pesar de lo simple de la situación, los modelos matemáticos obtenidos a partir de este experimento básico tienen amplias aplicaciones.

   Denótese el “éxito” de un evento por E y su “fracaso” por F. También, sea  y , donde . Los resultados posibles de realizar una sucesión de ensayos de Bernoulli pueden representarse simbólicamente por

y, debido a la independencia, las probabilidades de estos resultados posibles se calculan fácilmente. Por ejemplo,

   Varios de estos resultados posibles con sus probabilidades asociadas son de interés práctico.

  Se han diseñado y estudiado muchas funciones de probabilidades como modelos para diferentes fenómenos aleatorios. Ya se presentó la función de densidad uniforme. Aquí se estudian las propiedades de varias de esas funciones. Estos modelos, en conjunto con las distribuciones uniforme y de Laplace, cubren la mayoría de los casos encontrados en nuestro trabajo.

 

2.6.1    Distribución Binomial

 

Considérese un experimento aleatorio con sólo dos resultados posibles, E1y E2 (ensayos de Bernoulli). Supóngase que la probabilidad de que ocurra E1 es p y de que ocurra E2 es . Si el experimento se repite n veces y los ensayos sucesivos son independientes entre sí, entonces la probabilidad de obtener E1 k veces y E2 n - k veces la da la función de probabilidades binomial

                                                                                                                                            

  donde

es el coeficiente binomial en el teorema del binomio

La relación dada por la Ec. se deduce en la forma siguiente: La probabilidad de cualquier secuencia que tenga k eventos E1 y n - k eventos E2 es , puesto que se supuso que los ensayos sucesivos son independientes. Además, el número de tales secuencias es igual al número de combinaciones de n objetos tomados k a la vez. Por tanto, la fórmula se deduce de la regla de adición de las probabilidades.

   El modelo binomial describe una variable aleatoria discreta X de valores enteros asociada con ensayos repetidos. Específicamente, se dice que una variable aleatoria X tiene una distribución binomial de orden n si toma los valores 0, 1, ... , n con

                                                                                                                                                                       

donde 0 < p < 1, p + q = 1, k = 0, 1, ... , n.

   La fdp de X está dada por

                                                                                                                                                               

La función de distribución correspondiente es una función escalonada

                                                                                                                                                                

   Los promedios estadísticos de una variable aleatoria binomial se obtienen introduciendo la Ec. en la fórmulas apropiadas para la esperanza. La media y la variancia de X son

                                                                                    

                                                                                                                                                                        

   La demostración de la Ec. procede en la forma siguiente:

Como se mencionó, la variable aleatoria binomial X es una variable aleatoria discreta de valores enteros asociada con ensayos repetidos de un experimento. Considérese la ejecución de algún experimento en el cual se observa solamente si el evento A ocurre. Si A ocurre, al experimento lo llamamos un éxito; y si no ocurre (ocurre el complemento ), se considera un fracaso. Supóngase que la probabilidad de que A ocurra es P(A) = p, entonces . Este experimento se repite n veces (ensayos) bajo las suposiciones siguientes:

1.        P(A) es constante en cada ensayo.

2.        Los n ensayos son independientes.

Un punto en el espacio muestral es una sucesión de A’es y ’es. A un punto con k A y n - k  se le asignará una probabilidad de . Así, si X es la variable aleatoria asociada con el número de veces que A ocurre en n ensayos, entonces los valores de X son los enteros .

   Una variable aleatoria binomial corresponde entonces al número de veces que ocurre un evento con probabilidad p en n ensayos independientes de un experimento aleatorio.

   En el estudio de las comunicaciones, la distribución binomial se aplica en la transmisión digital cuando X representa el número de errores en un mensaje de n dígitos.

 

Ejemplo 28. ¿Cuál es la probabilidad de obtener exactamente tres 1 en cinco lanzamientos de un dado? ¿Cuál es la probabilidad de obtener como máximo dos 1?

 

Solución: De acuerdo con la Ec. , para , , n = 5 y k = 3, se tiene

Para la segunda parte del problema,

 

Ejemplo 29. Una fuente binaria genera los dígitos 1 y 0 aleatoriamente con probabilidades de 0.6 y 0.4, respectivamente.

(a)      ¿Cuál es la probabilidad de que ocurran dos 1’os y tres 0’os en una secuencia de cinco dígitos?

(b)     ¿Cuál es la probabilidad de que ocurran al menos tres 1’s en una secuencia de cinco dígitos?

 

 

Solución:

(a)      Sea X la variable aleatoria que denota el número de ‘unos’ generados en una secuencia de cinco dígitos. Puesto que sólo hay dos resultados posible (1 o 0) y la probabilidad de generar un 1 es constante y hay cinco dígitos, está claro que X tiene una distribución binomial descrita por la Ec. con n = 5 y k = 2. En consecuencia, la probabilidad de que ocurran dos unos y tres ceros en una secuencia de cinco dígitos es

(b)     La probabilidad de que al menos ocurrirán tres ‘unos’ en una secuencia de cinco dígitos es

donde

Por tanto,

 

Ejemplo 30.  En una casa nueva se acaban de instalar 20 bombillos. Suponga que cada bombillo tiene una probabilidad de 0.2 de funcionar más de tres meses. ¿Cuál es la probabilidad de que al menos cinco de ellos funciones más de tres meses? ¿Cuál es el número promedio de bombillos que se tienen que reemplazar en tres meses?

 

Solución. Es razonable suponer que los bombillos funcionan de forma independiente. Si X es el número de bombillos que funcionan por más de tres meses, tiene una distribución binomial con n = 20 y p = 0.2. La respuesta a la primera pregunta es entonces dada por

   El número promedio de reemplazos es

 

2.6.2    Distribución Geométrica

 

   El espacio muestral de la distribución geométrica es el conjunto de todos los enteros no negativos y la distribución de probabilidades viene dada por

                                                                                                                                                               

donde p es un parámetro de la distribución (p está comprendido entre 0 y 1).

   La distribución geométrica se origina a partir de ensayos de Bernoulli, por ejemplo, cuando se desea evaluar la primera vez que se produce un evento A de probabilidad p en una sucesión infinita de realizaciones independientes de un experimento aleatorio. Su valor medio, correspondiente al tiempo promedio de aparición de un evento, puede calcularse como

                                                                                                                                                   

Se sabe que , así que se puede escribir

                                                                                                                                                                    

En la demostración anterior, se permite el intercambio de la suma y la diferenciación porque  . Siguiendo el mismo procedimiento, la varianza tiene la forma

                                                                                            

   La distribución geométrica se utiliza en las comunicaciones digitales para estimar el tiempo medio transcurrido antes de que se produzca un error en una transmisión digital.

 

Ejemplo 31.  Un conductor está ansioso buscando un buen espacio para estacionarse en la calle cerca de su oficina. Hay cinco autos delante del conductor y cada uno tiene una probabilidad de 0.2 de ocupar el espacio. ¿Cuál es la probabilidad de que el auto inmediatamente delante de él ocupará el espacio para estacionarse?

 

Solución: Para este problema se tiene una distribución geométrica y se necesita evaluar  para k = 5 y p= 0.2. Por tanto,

que parece ser mucho menor que nuestra experiencia en situaciones similares.

 

2.6.3    Distribución de Poisson

 

   Se dice que una variable aleatoria X tiene una distribución de Poisson con parámetro a si toma los valores  con

                                                                                                                                                          

La fdp de X está dada por

                                                                                                                                                                  

La función de distribución acumulativa correspondiente es una función escalonada

                                                                                                                                                                  

   La media y la variancia de X son

                                                                                      

                                                                                                  

   Se debe señalar que FX(x) satisface las condiciones requeridas para una función de distribución. De hecho, FX(x) es monótona creciente y, además,

   La distribución de Poisson surge en algunos problemas que involucran conteos, por ejemplo, el monitoreo del número de llamadas telefónicas que llegan a un centro de conmutación durante diferentes intervalos de tiempo, el número de días que una escuela está cerrada debido a la falta de pago de los maestros o el número de juegos suspendidos debido a la lluvia durante una temporada de béisbol. En la comunicación digital, la distribución de Poisson está relacionada con el problema de la transmisión de muchos bits de datos cuando las tasas de error son bajas. En estos casos, el manejo de la distribución binomial se hace engorroso. Sin embargo, si el valor medio de la tasa de error permanece finito e igual a a, es posible aproximar la distribución binomial por la de Poisson.

 

Ejemplo 32. Demuestre que cuando n es muy grande (n >> k) y p muy pequeña (p << 1), la distribución binomial [Ec. ] puede ser aproximada por la siguiente distribución de Poisson [Ec. ]:

                                                                                                                                                                      

Solución: De la Ec. se tiene que

                                                                                                                                                

Cuando n >> k y p << 1, entonces

Sustituyendo estas relaciones en la Ec. , se obtiene

Así pues, en el caso binomial, si el número de ensayos n se vuelve razonablemente grande y la probabilidad de éxito individual p es relativamente pequeña, de modo que su producto sea de magnitud moderada, la probabilidad del número de éxitos en n ensayos tiende a la distribución de Poisson.

 

Ejemplo 33. Sea X una variable aleatoria de Poisson definida por la Ec. ,

(c)      Demuestre que

(d)     Verifique las Ecs. y , es decir, las relaciones dadas por

Solución:

(a)      De la Ec. , se tiene

Así que

(b)     Por la Ec. ,

En forma similar,

o

Así que

Usando entonces la Ec. se obtiene

                                                                                                                            

Ejemplo 34. Supóngase que la probabilidad de que un transistor fabricado por una cierta compañía sea defectuoso es 0.015. ¿Cuál es la probabilidad de que no haya un transistor defectuoso en un lote de 100?

 

Solución: Sea X el número de transistores defectuosos en el lote de 100. La probabilidad buscada es

Como n es grande y p es pequeña en este caso, la aproximación de Poisson es apropiada y se obtiene

que está bastante cerca de la respuesta exacta. En la práctica, la aproximación de Poisson se usa frecuentemente cuando n > 10 y p < 0.1.

 

 

 

2.6.4    Distribución Normal (o Gaussiana)

 

La densidad más común, y más importante, encontrada en el mundo real es la función de densidad gaussiana o normal. El modelo gaussiano describe una variable aleatoria continua que tiene la distribución normal encontrada en muchas aplicaciones diferentes en ingeniería, física y estadística. La asombrosa versatilidad de este modelo proviene del teorema del límite central, el cual en esencia dice que

 

Si X representa la suma de N componentes aleatorios independientes y si cada componente sólo hace una pequeña contribución a la suma, entonces la FDA de X tiende a una FDA gaussiana conforme N se hace grande, indiferentemente de la distribución de las componentes individuales.

 

   Una variable aleatoria continua X es  gaussiana (o normal) si tiene media m, variancia s2 y si su fdp es de la forma

                                                                                                                                                                  

donde m y s > 0 son constantes dadas y es simétrica en torno a x = m. El recorrido de fX es todo . Esta función define la curva acampanada mostrada en la Fig. 2.16a. Al usar los símbolos m y  reconocemos el hecho que m y  son efectivamente el valor promedio y la variancia asociados con . La curva tiene simetría par con respecto el pico en . Esta simetría indica que

de modo que los valores observados de X tienen la misma probabilidad de caer por encima o por debajo de la media. El otro parámetro s indica la dispersión de la densidad. La evaluación de la integral de  mostraría que  es la variancia de la variable, de manera que s es la desviación estándar. Conforme s aumenta, la curva en forma de campana se ensancha más y el pico decrece. Alternativamente, conforme s decrece, la densidad se hace más aguda formando un pulso angosto con un pico más alto. Observe también el comportamiento asintótico de la curva en ambas direcciones del eje x.

 

 

Figura 2.16  Distribución normal (gaussiana).

 

   La distribución normal es de mucha importancia en la teoría y aplicaciones de la probabilidad. Es una aproximación razonable a distribuciones empíricas en muchos problemas y se usa hasta en casos que involucran variables aleatorias cuyo dominio es un intervalo finito (a, b). En esos casos, la aproximación es posible si la curva normal es truncada y escalada adecuadamente o si su área es despreciable fuera del intervalo (a, b).

   La función de distribución acumulativa de X correspondiente es

                                                                                                                                                          

 

Ejemplo 35. Demostrar que la función fX(x) de la Ec. es una función de densidad; es decir, demostrar que

Solución: Para facilitar la demostración, se desplaza la curva de densidad hacia la izquierda por m unidades. A continuación, se considera la integral doble

Ahora se introducen coordenadas polares y se obtiene

 

La integral en la Ec. no puede ser evaluada en una forma cerrada y debe evaluarse numéricamente. Es conveniente usar la función Q(z), la cual se define como

                                                                                                                                                                     

Entonces la Ec. puede escribirse como

                                                                                                                                                                       

   La función Q(z) se presenta como la función de error complementaria, o simplemente como la función Q y está tabulada en el apéndice al final del texto. Una compañera de la función Q es la función de error, definida por la integral

                                                                                                                                                                       

Mediante un cambio de variables se puede obtener la relación entre la función Q y la función de error; ella es

                                                                               

   La fdp y la función de distribución de X se grafican en las Figs. 2.15a y b, respectivamente. La media y la variancia de X son

                                                                                                                                           

                                                                                                               

   Se usará la notación  para denotar que X es normal (o gaussiana) con media m y variancia s2. En particular, X = N(0; 1), es decir, la variable aleatoria X con media cero y variancia unitaria, se define como una variable aleatoria gaussiana normalizada.

   Ahora que se conoce la densidad gaussiana, se hablará un poco de por qué ocurre con tanta frecuencia en el mundo real. Ella resulta siempre que un gran número de factores contribuyen a un resultado final, como en el caso de la estática en una radio. Dos condiciones deben cumplirse antes de que la suma de muchas variables aleatorias comience a parecerse a una gaussiana. La primera se relaciona con las variancias individuales  y su sumatoria infinita. La segunda condición se satisface si las densidades componentes  se hacen cero fuera de alguna banda (ésta es una condición necesaria pero no suficiente). Puesto que todas las cantidades con las que se trabaja en el mundo real tienen bandas acotadas, ellas satisfacen esta condición.

 

2.6.5    Distribución de Rayleigh

 

La densidad de Rayleigh es de interés debido a su relación especial con la densidad gaussiana. El modelo de Rayleigh describe una variable aleatoria continua producida a partir de dos variables aleatorias gaussianas en la forma siguiente:

 

Si X y Y son variables aleatorias gaussianas independientes con media igual a cero e igual variancia , entonces la variable aleatoria definida por  tiene una distribución de Rayleigh.

 

Como se ilustra en la Fig. 2.17, el modelo de Rayleigh se aplica a cualquier conversión de rectangular a polar cuando las coordenadas rectangulares son gaussianas idénticas pero independientes y tienen media igual a cero.

 

Φ

x

y

Y

0

X

R

 

Figura 2.17  Conversión de rectangular a polar.

 

   Para deducir la fdp de Rayleigh correspondiente, se introduce el ángulo aleatorio F de la Fig. 2.13 y se comienza con la relación de la fdp conjunta

donde

Como X y Y son gaussianas independientes con m = 0 y variancia s2,

                                                                                                                                         

Por lo tanto, incluyendo al escalón u(r) para reflejar el hecho de que r ³ 0, se tiene que

                                                                                                                                                                 

El ángulo no aparece explícitamente aquí, pero su recorrido está claramente limitado a 2p radianes. Es decir, la variable aleatoria F que representa la fase está distribuida uniformemente en el intervalo de 0 a 2p.

   Ahora se obtiene la fdp para R solamente integrando la Ec. con respecto a j. Tomando ya sea  o bien , se obtiene la fdp de Rayleigh

                                                                                                                                                                     

la cual se grafica en la Fig. 2.18. Esta función de distribución es independiente del punto en el plano con respecto al sistema de coordenadas de referencia. En otras palabras, tiene una distribución uniforme entre cero y 2p.

 

     

 

Figura 2.18  fdp de Rayleigh.

 

La media y el segundo momento de R son

                                                                                                                                                                     

    Para cálculos de probabilidades, la fdp de Rayleigh toma la forma más sencilla

                                                                                                                                                       

obtenida al integrar fR(l) en 0 £ l £ r.

   Regresando a la Ec. , obtenemos la fdp marginal para el ángulo aleatorio F usando

de modo que F tiene una distribución uniforme de recorrido 2p radianes. También notamos que , lo que significa que las coordenadas polares R y F son estadísticamente independientes. Estos resultados se usan para la representación del ruido de pasabanda.

 

 

 

 

 

 

 

PROBLEMAS

 

2.1     Demuestre que si los eventos A y B son independientes, entonces

2.2         El resultado de un experimento es un entero N cuyo valor tiene la misma posibilidad de ser cualquier entero en el intervalo 1 £ N £ 12. Sean A el evento que N es impar, B el evento que N es exactamente divisible por 3 y C el evento que N es exactamente divisible por 4. Dibuje el diagrama de Venn correspondiente y determine las probabilidades de los eventos A, B, C, A Ç B, A Ç C, B Ç C, y .

2.3         Una moneda está cargada de modo que P(C) = (1 + e)/2 con 0 < |e| < 1 (C = cara). Demuestre que la probabilidad de que dos lanzamientos independientes produzcan el mismo resultado será mayor que 1/2.

2.4         Una cierta computadora deja de operar si dos componentes CA y CB fallan al mismo tiempo. La probabilidad de que CA falle es 0.01 y la probabilidad de que CB falle es 0.005. Sin embargo, la probabilidad de que CB falle es aumentada por un factor de 4 si CA ha fallado. Calcule la probabilidad de que la computadora deje de operar. Determine también la probabilidad de que CA falle si CB ha fallado.

2.5         Si A y B son independientes con  y , demuestre que

donde .

2.6         Una moneda no cargada se lanza dos veces y se da una información parcial sobre el resultado. (a) Halle la probabilidad de resultados iguales cuando se dice que en el primer lanzamiento salió cara.  (b) Halle la probabilidad de resultados iguales cuando se dice que salió cara en por lo menos un lanzamiento.  (c) Halle la probabilidad de cara en por lo menos un lanzamiento cuando se dice que ocurrieron dos resultados iguales.

2.7         Repita el Prob. 2.6 para una moneda cargada con P(C) = 1/4.

2.8         Un satélite puede fallar por muchas razones, dos de las cuales son falla de computadora y falla de máquina. Para una misión dada, se sabe que

La probabilidad de falla de máquina es 0.008.

La probabilidad de falla de computadora es 0.001.

Dada una falla de máquina, la probabilidad de falla del satélite es 0.98.

Dada una falla de computadora, la probabilidad de falla del satélite es 0.45.

Dada una falla de cualquier otra componente, la probabilidad de falla del satélite es 0.45.

(a)     Determine la probabilidad de que un satélite falle.

(b)    Determine la probabilidad de que un satélite falle y que ello se deba a falla de máquina.

(c)     Supóngase que las máquinas de satélites diferentes funcionan independientemente. Dado que un satélite ha fallado como un resultado de falla de máquina, ¿cuál es la probabilidad de lo mismo le sucederá a otro satélite?

2.9         Una caja contiene 10 monedas honestas con P(C) = 1/2 y 20 monedas cargadas con . Se saca una moneda al azar y se lanza dos veces.  (a) Halle la probabilidad del evento “todas caras (C)”. Suponga que los eventos condicionantes son la honestidad de la moneda. (b) Si ocurre el evento “todos sellos (S)”, ¿cuál es la probabilidad de que la moneda estaba cargada?

2.10     Repita el Prob. 2.9 para el caso cuando la moneda extraída es lanzada tres veces.

2.11     La urna A contiene siete dólares de plata y una moneda de 10 dólares de oro. La urna B contiene 10 dólares de plata. Se sacan nueve monedas de B y se colocan en A; entonces se seleccionan ocho de las 17 monedas en A y se colocan de regreso en la urna B. Si fuese a escoger una de las dos urnas, ¿cuál de las dos seleccionaría?

2.12     Un jugador tramposo posee un dado cargado en el cual el número 1 sale con probabilidad 2/3 y los números 2 a 6 con probabilidades iguales a 1/15 cada uno. Desafortunadamente, dejó su dado cargado en una caja con dos dados legales y no pudo diferenciarlos. Escoge un dado (al azar) de la caja, lo lanza una vez y aparece el número 1. Condicionado a este resultado, ¿cuál es la probabilidad de que el escogió el dado cargado? Lanza el dado una vez más, y se nuevo sale un 1. ¿Cuál es la posibilidad de que después de este segundo lanzamiento el jugador escogió el dado cargado?

2.13     Se dispara a un blanco con un rifle. Suponiendo que la probabilidad de dar en el blanco es 0.9 para cada disparo y que los disparos son independientes, calcule la probabilidad de que, para dar en el blanco:

(a)     Se requieren más de dos disparos.

(b)    El número de disparos requeridos está entre cuatro y seis (inclusive).

2.14     Sea . Determine FX(x) y úsela para evaluar P(X £ 0), P(0 < X £ 1) y .

2.15     Supóngase que una cierta variable aleatoria tiene la FDA

Evalúe K, escriba la fdp correspondiente y determine los valores de P(X £ 5) y .

2.16     Repita el Prob. 2.15 con la distribución

2.17     La vida X, en horas, de un cierto tipo de componente electrónica, tiene una fdp dada por

Determine la probabilidad de que una componente sobrevivirá 150 horas de operación.

2.18     El tiempo, en minutos, que un estudiante requiere para ir desde su casa hasta una clase en la mañana está distribuido uniformemente entre 20 y 25. Si el estudiante sale de su casa a las 7:38 a.m., en punto, ¿cuál es la probabilidad de que el estudiante no llegará tarde para su clase a las 8:00 a.m.?

2.19     Sea . Halle la fdp de la variable aleatoria definida por la transformación  y grafique ambas fdp en el mismo conjunto de ejes.

2.20     Una variable aleatoria X tiene recorrido 0 < x < 2 y una distribución acumulativa

(a)     Halla la fdp para X.

(b)    Calcular .

2.21     Supóngase que X tiene una fdp uniforme en el intervalo -1 £ x £ 3. Determine y grafique la fdp de Z definida por la transformación .

2.22     Halle la densidad de  dado que  es como se muestra en la Fig. 2.19. Halle también la media y la variancia de y y x.

 

fX(x)

1/3

-1

2

x

Figura 2.19

 

2.23     Una función está definida por . Halle la densidad de y, f(y), si: (a) x está distribuida uniformemente entre 0 y 3. (b) .

2.24     Una variable aleatoria X tiene fdp

en (0, 4).

(a)     Confirme que f es realmente una fdp.

(b)    Calcula la distribución acumulativa de X.

(c)     Calcular .

2.25     En la Fig. 2.20 se muestra la función de densidad de x. Una variable aleatoria, y, está relacionada con x en la forma mostrada. Determine fY(y).

fX(x)

½

2

x

x

½

1

2

2

-2

y

 

Figura 2.20

 

2.26     Determinar fY(y) cuando . Demuestre después que X y Y no son estadísticamente independientes y halle .

2.27     Sean X1, X2 y X3 variables aleatorias independientes, donde cada una toma los valores  con probabilidades de 1/2. Defina las variables aleatorias Y1, Y2 y Y3 por

Demuestre que cualesquiera dos de estas nuevas variables aleatorias son independientes pero que Y1, Y2 y Y3 no son independientes.

2.28     Calcule la constante c de modo que

sean una fdp en  (conjunto de números reales). Demuestre que su media no es finita.

2.29     Determine la media, el segundo momento y la desviación estándar de X cuando  con a > 0.

2.30     Determine la media, el segundo momento y la desviación estándar de , donde a es una constante y X tiene una fdp uniforme en el intervalo q £ x £ q + 2p.

2.31     La caminata aleatoria unidimensional puede ser descrita en la forma siguiente: Un hombre ebrio camina por un pasillo angosto con pasos de igual longitud l. Camina hacia delante con probabilidad a = ¾ o hacia atrás con probabilidad 1 - a = ¼. Sea X su distancia hasta el punto de partida después de 100 pasos. Determine la media y la desviación estándar de X.                                                                                                       

Resp. 50l,

2.32     Un canal de transmisión ruidoso tiene una probabilidad de error por dígito igual a . Calcule la probabilidad de más de un error en 10 dígitos recibidos. Repita este cálculo usando la aproximación de Poisson.                                                                                                                                           Resp. 0.0042, 0.0047

2.33     Suponga que se transmiten 10000 dígitos por un canal ruidoso que tiene una probabilidad de error por dígito de p = 5 ´ 10-5. Determine la probabilidad de que no ocurrirán más de dos errores de dígitos.                                                                

Resp. 0.9856

2.34     Se sabe que un voltaje tiene una distribución gaussiana con valor medio igual a 4. Cuando este voltaje se aplica a un resistor de 4 W, la potencia promedio disipada es 8 W. Halle la probabilidad de que el voltaje sea mayor que 2 V en cualquier instante.

2.35     Un resistor ruidoso produce un voltaje Vn(t). En t = t1, se sabe que el nivel de ruido  es una variable aleatoria gaussiana con densidad

Calcule la probabilidad de que  para k =1, 2, 3.

2.36     Dada la variable aleatoria X con media mX y variancia , halle la transformación lineal Y = aX + b de modo que mY = 0 y .                                           

Resp.

2.37     Defina las variables aleatorias Z y W por

Z = X + aY,        W = X - aY

donde a es un número real. Determine a de manera que Z y W sean ortogonales.

Resp. 

2.38     Sea FX(w) la función característica de X y sea Y = aX + b. Determine la función característica de Y en términos de FX(w).                                     

Resp.

2.39     Demuestre que el momento n-ésimo de X puede determinarse a partir de su función característica FX(w) por la relación

Sugerencia: Diferencie ambos lados de la Ec. n veces y demuestre que

2.40     Para cualquier e > 0, demuestre que

donde mX = E[X] y  es la variancia de X. Esta relación se conoce como la desigualdad de Chebyshev.

2.41     Cuando una FDA binomial tiene n >> 1, ella puede ser aproximada por una FDA gaussiana con media y variancia iguales. Suponga que una moneda no cargada se lanza 100 veces. Use la aproximación gaussiana para hallar la probabilidad de que (a) salen caras más de 70 veces; (b) el número de caras está entre 40 y 60.

Resp.: (a)  P(X > 70) =Q(4) » 3.5 ´ 10-5; (b) 

2.42     La variable aleatoria X tiene una distribución de Rayleigh. Halle la media, el segundo momento y la variancia.

2.43     Sea X = Y2, de manera que X y Y no son independientes. No obstante, demuestre que ellas no están correlacionadas si la fdp de X tiene simetría par.