capítulo 2
Probabilidad y Variables Aleatorias
2.1 Introducción
Hasta
ahora se ha estudiado la transmisión de señales deterministas por un canal y no
se ha puesto ningún énfasis en el papel central jugado por el concepto de
“aleatoriedad” en las comunicaciones. La palabra aleatorio significa
impredecible. Las señales que llevan símbolos de información en un mensaje son
aleatorias porque la información es aleatoria. Si el receptor en el extremo
terminal de un canal conociese por adelantado el mensaje proveniente de la
fuente que lo origina, no habría necesidad de la comunicación. De modo que hay
una aleatoriedad en la fuente del mensaje. Además, las señales transmitidas
siempre están acompañadas por ruido que introduce el sistema; este ruido se
conoce como aditivo. Estas ondas de ruido siempre son impredecibles y el
desafío real de la comunicación es separar la señal deseada de la “basura”
(ruido) indeseada. Como no se conoce en detalle la variación con el tiempo de
una señal aleatoria, se debe hablar entonces en términos de probabilidades y
propiedades estadísticas. El objetivo de este capítulo es presentar el
conocimiento matemático esencial para un mejor estudio de la comunicación; los
tópicos principales incluyen probabilidades, variables aleatorias, promedios
estadísticos y modelos importantes.
2.2 Probabilidad y Espacio Muestral
La
teoría de probabilidades establece un marco matemático para el estudio de fenómenos
aleatorios y trata principalmente
de promedios de fenómenos masivos que ocurren secuencial o
simultáneamente: juegos de azar, encuestas, seguros, herencia, control de
calidad, mecánica estadística, teoría de colas, ruido. Ella no trata
sobre la naturaleza de los procesos aleatorios sino más bien con
manifestaciones observables experimentalmente. Proporciona las herramientas
básicas para construir y analizar modelos matemáticos para los fenómenos
aleatorios. Por esta razón, aquí se analizarán las probabilidades en términos
de sucesos o eventos asociados con los resultados de experimentos.
2.2.1 Experimentos Aleatorios
Antes de definir lo que se entiende por
probabilidad, debemos extender nuestro vocabulario y definir algunos términos
importantes.
La mayoría de nosotros tiene ciertas nociones
intuitivas elementales sobre las leyes de probabilidades y podemos figurarnos
un juego o un experimento para verificar la validez de estas nociones. Este
procedimiento se parece mucho al llamado enfoque clásico a la teoría de
probabilidades, enfoque que en el tiempo ha sido sometido a muchas críticas,
sobre todo por la aparición de muchas contradicciones y controversias, debido a
lo intuitivo del procedimiento y a la falta de formalismo y rigor bien
definidos. Así pues, el experimento o juego usualmente se define suponiendo
ciertas simetrías y aceptando a priori ciertos resultados, como por ejemplo la
idea de que ciertos resultados tienen igual posibilidad de ocurrir. Por
ejemplo, considere el problema siguiente: Dos personas, A y B, juegan a lanzar
una moneda dos veces. Si una cara aparece en por lo menos uno de los
lanzamientos, A gana. De lo contrario
B gana. Intuitivamente, parece que
los resultados siguientes son igualmente probables:
donde C
denota cara y S denota sello. A puede suponer que sus oportunidades
para ganar el juego son 3/4, ya que una cara ocurre en tres de los cuatro casos
(a su favor). Por otra parte, el razonamiento siguiente también puede parecer
lógico. Si el resultado del primer lanzamiento es C, A gana; no hay
necesidad de continuar el juego. En consecuencia, sólo se tienen que considerar
tres posibilidades, a saber
donde los primeros dos casos son favorables a A y al menos uno a B. En otras palabras, la probabilidad de que A gane es realmente 2/3 en vez de ¾. El enfoque intuitivo en este
problema parece conducir a dos estimados diferentes de la probabilidad. Así que
para el juego o para el experimento se deben establecer reglas claras y
precisas.
Un experimento es un conjunto de reglas que
rigen la realización de una operación; el experimento se llama un experimento
aleatorio si su resultado no puede predecirse. Se supone que todos los
resultados posibles (distintos) de un experimento aleatorio son conocidos. Ejemplos
típicos de un experimento aleatorio son el lanzamiento de una moneda (como el
mencionado) o de un dado, sacar una baraja de un mazo o seleccionar una señal
de mensaje de un grupo de mensajes para su transmisión. En cualquiera de estos
casos se debe ser preciso en la descripción del experimento.
2.2.2 Definiciones
Fundamentales
Los
eventos y combinaciones de eventos tienen un papel primordial en la teoría de
probabilidades; en esta se está interesado en un experimento con un resultado
que depende del azar, el cual se denomina un experimento aleatorio. Un experimento típico, con un conjunto de
reglas que rigen su operación, puede tener varios resultados posibles conocidos
y puede haber diferentes formas de caracterizar los eventos asociados. Por
ejemplo, al lanzar un dado y observar la cara que sale, hay seis resultados
posibles. El conjunto de todos los resultados posibles de un experimento
aleatorio se supone conocido y se denomina el espacio muestral S. Un elemento o partición en S
se llama un punto de muestra.
Cada resultado de un experimento aleatorio corresponde a un punto de muestra;
es decir, un resultado se obtiene al realizar el experimento una vez. Un
conjunto o combinación de puntos de muestra, o conjunto de resultados, se llama
un evento o suceso, éste
es un subconjunto del espacio muestral; en el experimento del dado, por
ejemplo, un evento sería “sale un número par”. Una asignación de números reales
a los eventos definidos en S se conoce como la medida de la probabilidad.
Los elementos de un conjunto pueden ser de cualquier tipo y tener
cualesquiera propiedades especificadas. Se usarán letras mayúsculas A, B,
C, F,
Y,
etc., para denotar conjuntos y letras minúsculas a, b c, f,
y,
etc., para denotar sus elementos. Un
conjunto se describe por sus elementos, así, por ejemplo, podemos escribir
lo
que significa que los elementos de A
son los enteros 1 hasta 6. Si el conjunto B
contiene dos elementos, éxito o falla, se puede describir como B = {e,
f}, donde e y f se escogieron como
representación de éxito y falla, respectivamente. Para un conjunto formado por
todos los números reales no negativos, una descripción conveniente es
Se usará la
convención
para indicar que “el elemento a pertenece al conjunto A”.
Es
importante señalar que, para un experimento aleatorio dado, el espacio muestral
asociado no es único y su construcción depende del punto de vista adoptado y
también de las preguntas a responder. Aunque la partición del espacio muestral S
no es única, los puntos de muestra están sujetos a dos requisitos:
1.
El conjunto de los puntos de
muestra debe ser exhaustivo,
de modo que S consiste de todos los resultados posibles del
experimento en cuestión.
2.
Los resultados deben ser mutuamente excluyentes, de modo
que uno y sólo uno de ellos ocurre en un ensayo dado.
En
consecuencia, cualesquiera eventos de interés pueden ser descritos por subconjuntos
de S que contienen cero, uno o más de un punto de muestra. Aquí
también tenemos que hacer la distinción entre conjuntos que contienen un número
finito de elementos, conjuntos finitos,
y aquellos que contienen un número infinito, conjuntos infinitos. Un conjunto infinito es contable si sus elementos pueden ser arreglados de modo que exista
una correspondencia uno a uno entre ellos y todos los enteros positivos. Un
conjunto no contable es aquél donde
no se puede establecer la correspondencia uno a uno mencionada.
2.2.3 Definiciones
Auxiliares
1. El
complemento del evento A,
denotado
2. La
unión de los eventos A
y B, denotada A È B o A + B, es el evento
que contiene todos los puntos de muestra en bien sea A o B o en
ambos; es decir, la unión representa la ocurrencia de A o B o de
ambos.
3. La
intersección de los eventos A
y B, denotada A Ç B
o AB, es el evento que contiene todos
los puntos de muestra en ambos A y B; es decir representa la ocurrencia de A y B.
4. El
evento que no contiene ningún punto de muestra se llama el evento nulo o vacío y se denota por Æ.
Así que Æ
corresponde a un evento imposible y representa el conjunto vacío.
5. Dos
eventos A y B se llaman mutuamente
excluyentes si no contienen puntos de muestra comunes, es decir, si A
Ç B
= Æ.
Observe que
6.
Si todo punto de muestra de A
es también un punto de muestra de B, entonces A es un subconjunto
de B. Esto se representa simbólicamente por A Ì B
o
Ahora se define un conjunto particular el
cual se denomina espacio. En este
trabajo, sólo se consideran conjuntos que son subconjuntos de una conjunto fijo
no vacío. Este conjunto que contiene todos los elementos de todos los conjuntos
bajo consideración se denomina espacio
y se denota por el símbolo S. Está
claro entonces que se cumplen las relaciones siguientes:
2.2.4 Álgebra
de Eventos
Ahora
se considerarán algunas operaciones con conjuntos que son subconjuntos del
espacio S. Las relaciones entre las
operaciones de complementación, unión e intersección se ilustran geométricamente
mediante los diagramas de Venn mostrados en la Fig. 2.1. De la figura vemos que
Las
Ecs.
y se
conocen como las leyes de De Morgan. Las operaciones de unión e
intersección de A, B y C,
subconjuntos del conjunto universal S,
también satisfacen las leyes siguientes:
Leyes
Conmutativas:
Leyes
Asociativas:
Figura 2.1 Diagramas de Venn.
Leyes
Distributivas:
Leyes
Complementarias:
2.2.5 Probabilidades
de Eventos
En la teoría de probabilidades estamos interesados en un experimento cuyo
resultado depende de la casualidad y que denominamos un experimento aleatorio. Se supone aquí que se conocen todos los
distintos resultados de un experimento aleatorio y que todos ellos pertenecen
al espacio muestral. Es
importante señalar que, para un experimento dado, el espacio muestral asociado
no es único y su construcción dependen del punto de vista adoptado y de las
preguntas que deben responderse. Ahora procederemos con las diferentes
definiciones de probabilidades de eventos.
1.
Definición de Frecuencia Relativa:
Supóngase
que un experimento aleatorio es repetido n veces, donde n tiene un valor muy grande. Si un
evento A ocurre nA veces, la fracción nA/n se define como la frecuencia relativa de A. Bajo condiciones estables, es de esperar que esta fracción tienda
a un valor único conforme n se hace
grande. Este valor límite posee claramente las propiedades de la medida de
probabilidad. Por lo tanto, la probabilidad del evento A, denotada P(A), se define formalmente como
Esta
definición es intuitivamente satisfactoria. Por ejemplo, si una moneda se lanza
muchas veces, la relación entre el número de caras y el número de lanzamientos
tendería a 1/2. Por lo tanto, la probabilidad de una cara se define como igual
a ½. Este ejemplo sencillo muestra por qué n
debe tender a infinito. Se debe observar
que
La Ec. establece que la
probabilidad de cualquier evento A es un número real en el intervalo
Considerando un evento que ocurre en toda
observación, produce el caso límite
La interpretación de frecuencia relativa de
la probabilidad es objetiva en el sentido que puede verificarse
experimentalmente. Suponga, por ejemplo, que se desea probar si una moneda es
honesta, esto es, si la probabilidad de cara es igual a 0.5. Para hacerlo, se
lanza 1000 veces. Si el número de caras es “casi” 500, se concluye que la
moneda en efecto es honesta.
2.
Definición Clásica:
En
esta definición, la probabilidad P(A) del evento A se
define sin experimentación. Está dada por
donde
N es el número de resultados posibles y NA es el
número de resultados que pertenecen al evento A. La probabilidad de un
evento se asigna como resultado de un juicio subjetivo. Un ejemplo de esta
interpretación es la afirmación ‘hay un 40% de probabilidades de que llueva
mañana’, donde se asigna el número 0.4 sobre la base un la información
disponible y de la experiencia profesional.
3.
Definición Axiomática:
A continuación se introduce la
noción de una función de probabilidad. En esta definición axiomática,
la probabilidad del evento A, denotada P(A), es un número
real finito asignado a cada evento A del espacio muestral S de todos los eventos posibles. El número P(A)
se denomina la medida de la probabilidad de A o simplemente la
probabilidad de A y se supone que satisface los tres axiomas siguientes:
Axioma 1:
Axioma 2: La probabilidad del evento cierto es igual a
1:
Axioma 3:
Si dos eventos A y B no tienen elementos
en común (son mutuamente excluyentes), la probabilidad del evento
Estos
axiomas forman la base de la teoría de la probabilidad, aunque no hacen mención
de la frecuencia con la cual ocurre un evento. Constituyen un conjunto
suficiente de postulados a partir de los cuales se pueden derivar propiedades
útiles de la función de probabilidad.
Usando estos axiomas, se pueden
obtener las siguientes leyes de probabilidad útiles:
4.
Observación:
Ejemplo 1. Usando los axiomas de la probabilidad,
demuestre (a) la Ec. y (b) la
Ec.
Solución:
(a)
Entonces el uso de los axiomas 1 y
2 da
Así que
(b)
De la Ec. ,
se tiene que
Ahora, por el axioma 1,
P(A)
£
1
Ejemplo 2. Usar los axiomas de probabilidad para
verificar la Ec. .
Solución: Se sabe que
Por lo tanto,
por el axioma 3,
y se concluye que
Ejemplo 3. Usando los axiomas de probabilidad, verifique
la Ec. .
Solución:
Primero se descomponen A È B,
A y B como uniones de eventos. A partir del diagrama de Venn de
la Fig. 2.2 se obtiene
Entonces, por el axioma 3,
De las Ecs.
y ,
se obtiene
Sustituyendo estas ecuaciones en
la Ec. ,
se obtiene
Con el enunciado de los axiomas de la
probabilidad, se completa la descripción matemática de un experimento
aleatorio. Éste consiste de tres constituyentes fundamentales: un espacio
muestral S, una colección de eventos A, B,
… y la función de probabilidad P.
Estas tres cantidades constituyen un espacio
de probabilidades asociado con un experimento aleatorio.
El importante resultado dado por la Ec. puede generalizarse de inmediato a la unión de
tres o más eventos. Usando el mismo procedimiento, se puede demostrar, para los
eventos arbitrarios A, B y C,
que
y, en
el caso de n eventos,
donde Aj, j = 1, 2,
… , n
son eventos arbitrarios. Si los eventos son mutuamente excluyentes,
entonces
2.2.6 Probabilidad
Condicional
El concepto de probabilidad condicional es de mucha utilidad. Algunas
veces un evento A depende en alguna forma de otro evento B con P(B)
¹
0. En el experimento de lanzar un dado, por ejemplo, si se conociese el
instante en que el dado golpea la mesa de juego, ¿nos diría esto algo sobre cuál
cara del dado salió? Por razones como ésta, la probabilidad de A debe
ajustarse cuando se sabe que B ha ocurrido. Como otro ejemplo, supóngase
que va a comprar un carro usado. Busca en el periódico, encuentra uno que le
gusta y después de una breve inspección se convence de que hay una alta
probabilidad de que el carro está en buenas condiciones. Por precaución, se
busca un amigo que es un mecánico experto y con él realiza una segunda
inspección del automóvil. Su amigo detecta varios problemas de importancia.
Como consecuencia, su probabilidad personal de que el carro está en buenas
condiciones disminuye. De estas dos ilustraciones se observa un principio
general: cuando se obtiene mayor información acerca de un evento, se produce un
cambio en su probabilidad. Ahora se introducen las probabilidades condicionales
para explicar la dependencia de eventos y también para definir la independencia
estadística.
Supóngase
que se tiene un valor para la probabilidad de un evento A, P(A) y también que se obtiene la información de que ha ocurrido otro
evento B . Debido al conocimiento que
tenemos de B, la probabilidad de A ahora cambia y es condicionada por la
ocurrencia de B. La probabilidad condicional de un
evento A dado que el evento B ha ocurrido, denotada por
donde
P(B) ¹
0 y P(A Ç B)
es la probabilidad conjunta de A y B. Por ejemplo, si A representa la aparición de dos puntos
en el experimento de lanzar un dado y B
representa un número par de puntos, la probabilidad de A dado B sería la
probabilidad de dos puntos, suponiendo que se sabe que el resultado es bien sea
dos, cuatro o seis puntos. De manera que la afirmación condicional ha reducido
el número de resultados posibles de seis a tres. Intuitivamente esperaríamos
que la respuesta fuese 1/3.
El
uso de la definición dada por la Ec.
puede justificarse mediante el enfoque de frecuencias relativas en la forma
siguiente. Sean NA, NB y NAB el número de resultados pertenecientes a los eventos
A, B y
Dado
que el evento B ha ocurrido, se sabe que el resultado está en B. Hay NB
resultados en B. Ahora, para que A ocurra dado que B ha ocurrido, el resultado debe pertenecer a ambos A y B.
En AÇB se tienen NAB resultados. De modo que la probabilidad de que
ocurra A dado que ocurrió B es
De
la definición en la Ec. se
obtiene la siguiente regla de Bayes:
donde
Se
debe señalar que en el estudio de probabilidades condicionales, se está
tratando con un espacio muestral contraído en el cual se sabe que A ha ocurrido. En otras palabras, A sustituye a S como el espacio muestran y la probabilidad condicional
De la definición de la
probabilidad condicional, Ec. ,
y la Ec. ,
se tiene que
Combinando las Ecs.
y
da como resultado que
a
partir de la cual se obtiene la Ec. .
Algunas veces es de utilidad extender ésta a tres o más eventos. Por ejemplo,
Ejemplo 4.
Tres cajas idénticas contienen dos monedas cada una. En una caja ambas monedas
son de oro, en otra son de plata y en la tercera caja una moneda es de plata y
la otra es de oro. Suponga que se selecciona una caja al azar y, además, que en
esa caja se selecciona una moneda al azar. Si se observa que esta moneda es de
oro, ¿cuál es la probabilidad de que la otra moneda en la caja es también de
oro?
Solución. Sea
Aoo el evento que la otra moneda en
la caja seleccionada también es de oro (es decir, la caja seleccionada es la
caja oo).
Bo el evento que la primera moneda
en la caja seleccionada es una moneda de oro.
La probabilidad buscada es
Ejemplo 5. En
un juego de barajas, determine la probabilidad de sacar, sin reemplazo, dos
aces seguidos.
Solución. Suponga
que A1 es el evento de que
la primera baraja que se sacó es un as, y en forma similar para A2.. Se desea calcular
Ahora
bien,
2.2.7 Eventos
Independientes
Suponga que se plantea la pregunta
siguiente: dadas las probabilidades individuales P(A) y P(B)
de dos eventos A y B, ¿Cuál es P(AB), la probabilidad de
que ocurran ambos A y B? No es difícil ver que el conocimiento
de P(A) y P(B) no basta para determinar P(AB)
en general. Esto es así porque P(AB) se ocupa del comportamiento conjunto
de los dos eventos, en tanto que P(A) y P(B) son probabilidades asociadas con
eventos individuales y no dan información sobre su comportamiento conjunto.
Considérese entonces un caso especial en el cual la ocurrencia o no ocurrencia
de uno no afecta la ocurrencia o no ocurrencia del otro. En esta situación, los
eventos A y B se denominan estadísticamente
independientes o simplemente independientes.
Se dice que dos eventos A y B son (estadísticamente)
independientes si y sólo si
Así
pues, si A y B son independientes, entonces, por la Ec. ,
es
decir, si A y B son independientes, la probabilidad de A dado que B ocurrió es
simplemente la probabilidad de A. El
saber que B ha ocurrido no nos dice
absolutamente nada sobre la probabilidad de A.
Ejemplo 6. En
el lanzamiento de un satélite, la probabilidad de que falle el lanzamiento es q. ¿Cuál es la probabilidad de que dos
lanzamientos sucesivos fracasen?
Solución. Suponiendo
que los lanzamientos son eventos independientes, la respuesta a la pregunta
anterior es simplemente
Sean A1, A2, ... , An
eventos definidos en S. Entonces los n eventos son (mutuamente) independientes si
y sólo si se cumplen las relaciones
para todas las combinaciones de
los índices tales que
Como una regla empírica, la independencia física
es una condición suficiente para la independencia estadística. De esta manera
podemos aplicar la Ec.
a situaciones en las cuales los eventos no tienen conexión física.
Ejemplo 7. El gerente de una tienda de computadoras
tiene en existencia 100 máquinas de un cierto tipo. Se descubre que 17 de éstas
tienen un problema con el disco duro y que 9 tienen monitores defectuosos. Dado
que estos dos problemas son independientes, halle la probabilidad de que una
máquina seleccionada al azar tenga:
(a)
sólo un problema de disco duro,
(b)
ningún problema.
Solución. Sea H el evento de seleccionar una máquina con problema de disco duro y
sea M el evento de que se selecciona
un monitor malo. Tenemos entonces que
(a) Se requiere
(b)
Se
debe tener cuidado cuando al extender el concepto de independencia a más de dos
eventos. Por ejemplo, en el caso de tres eventos, A1, A2
y A3, ellos son mutuamente
independientes si y sólo si
y
Se
requiere la Ec.
ya que la independencia por pares no generalmente conduce a la independencia
mutua. Considere por ejemplo, tres eventos A1,
A2 y A3 definidos por
donde
B1, B2 y B3
son mutuamente excluyentes, y donde cada uno ocurre con probabilidad de ¼. Es
muy sencillo calcular lo siguiente:
SE
ve que la Ec.
se satisface para todas j y k en este caso, pero la Ec.
no. En otras palabras, los eventos A1,
A2 y A3 son independientes por pares pero no son mutuamente
independientes.
Ejemplo 8.
Un sistema consistente de cinco componentes funciona correctamente cuando cada
componente está en buenas condiciones. Sea Si,
i 1, … , 5, el evento que el i-ésimo componente está funcionando bien
y suponga que
Solución.
Suponiendo que los cinco componentes trabajan en una forma independiente, es
más fácil determinar q hallando la
probabilidad de que el sistema trabaje p.
Del enunciado del problema se tiene que
Debido
a la independencia mutua de S1,
S2, … , S5, la Ec.
da entonces
y
por lo tanto
2.2.8 Probabilidad
Total
Supóngase que se tienen N eventos A1, A2,
... , AN mutuamente excluyentes y exhaustivos,
es decir, se cumplen las relaciones
y
Sea B cualquier evento
definido en S. Entonces,
la
cual se conoce como la probabilidad
total del evento B.
Ejemplo 9. Verifique
la Ec. .
Puesto que B Ç S
=B [y usando la Ec. ],
tenemos que
Ahora bien, los eventos B Ç Ak
(k = 1, 2, ... , N) son mutuamente excluyentes, como se observa
en el diagrama de Venn de la Fig. 2.3. Entonces, por el axioma 3 de la
definición de probabilidad y la Ec. ,
se obtiene
Figura
2.3
Ejemplo 10. En un sistema de comunicación
binaria (Fig. 2.4), se transmite un 0 o un 1. Debido al ruido en el canal, un 0
puede ser recibido como un 1 y viceversa. Denote por m0 y m1
los eventos de transmitir 0 y 1, respectivamente y por r0 y r1
los eventos de recibir 0 y 1, respectivamente. Supóngase que P(m0)
= 0.5,
y
(a)
Determinar P(r0)
y P(r1).
(b)
Si se recibió un 0, ¿cuál es la
probabilidad de que se envió un 0?
(c)
Si se recibió un 1, ¿cuál es la
probabilidad de que un 1 fue enviado?
(d)
Calcule la probabilidad de error Pe.
(e)
Calcule la probabilidad de que la
señal transmitida es leída correctamente en el receptor.
Figura 2.4 Sistema de comunicación binario.
Solución:
(a)
De la Fig. 2.4 tenemos que
Usando
la Ec. ,
se obtiene
(b)
Usando la regla de Bayes, Ec. ,
tenemos
(c)
En la misma forma,
(d)
(e)
La probabilidad de que la señal
transmitida sea leída correctamente en el receptor es entonces
2.3 Variables Aleatorias y Funciones de Probabilidades
Los
ingenieros de comunicaciones normalmente están más interesados en procesos
aleatorios que producen resultados numéricos – el valor instantáneo de
un voltaje de ruido, el número de errores en un mensaje digital, etc. Estos
problemas se estudian mejor mediante la definición de una variable aleatoria apropiada.
2.3.1 Variables Aleatorias
En un sistema de comunicación la señal recibida siempre es una
señal aleatoria debido al hecho de que la señal transmitida está sometida a
distorsión en el canal y, además, porque está contaminada por el ruido y posiblemente
por interferencia provocada o no. Por lo tanto, el análisis del desempeño de
una señal de comunicaciones no puede basarse únicamente en la teoría
desarrollada para señales deterministas. La mayoría de los experimentos de
interés práctico tienen resultados numéricos; esto es, el resultado del
experimento es un número, o un par de números, etc. Por ejemplo, cuando los
resultados posibles de un experimento aleatorio consisten de éxito y fracaso,
asignamos arbitrariamente el número uno al evento ‘éxito’ y el número cero al
evento ‘fracaso’. El espacio muestral asociado tiene ahora a {1, 0} como sus
puntos de muestra en vez de éxito y fracaso y la afirmación ‘el resultado es 1’
significa ‘el resultado es ‘éxito’. Este procedimiento no sólo permite reemplazar
un espacio muestral de elementos arbitrarios por un nuevo espacio muestral
formado solamente por números reales sino que permite utilizar medios
aritméticos para los cálculos de probabilidades.
Considérese un experimento aleatorio en el cual los resultados son
elementos de un espacio muestral S.
Para construir un modelo para una variable aleatoria, se supone que es posible
asignar un número real X(l)
a cada resultado l
siguiendo un cierto conjunto de reglas. Se ve que el “número” X(l) es una función
puntual real definida en el
dominio del espacio de probabilidades básico, el espacio muestral del
experimento.
Entonces,
una variable aleatoria X(l)
es una función (regla, transformación o relación) real y unívoca definida en el
espacio muestral S de un experimento
aleatorio que asigna un número en la recta real, llamado el valor de X(l),
a todo punto de muestra (resultado) l
del espacio muestral S de modo que
1.
El conjunto {l:
X(l)
£ x}
es un evento para todo número real x.
2.
P{l:
X(l)
= -¥}
= 0 y P{l:
X(l)
£ ¥}
= 1
La condición 1 es la llamada “condición de
mesurabilidad”. Asegura que tiene sentido considerar la probabilidad del evento
X(l) £ x para toda x. La relación
Casi
cualquier relación puede servir como una variable aleatoria siempre que cumpla
con las dos condiciones anteriores. Por ejemplo, si el experimento consistiese
de escoger “al azar” una baraja de un paquete de 52, el número de resultados
posibles en cualquier ensayo sería 52, dependiendo de cuál de las barajas se
escogió. Aquí, aunque el resultado no proporciona un resultado numérico,
podemos los resultados posibles se pueden representar por, digamos, los
primeros 52 enteros o mediante 52 puntos en una recta.
Se usarán letras mayúsculas para
denotar variables aleatorias y letras minúsculas para denotar los
valores fijos de las variables aleatorias (es decir, números reales). Aunque
detrás de toda variable aleatoria existe una relación de transformación,
usualmente la preocupación son los números resultantes. Por ello se adoptará un
punto de vista más directo y se tratará a la propia X como el símbolo
general para los resultados experimentales. Este punto de vista permite
trabajar con eventos valorados numéricamente tales como X = a
o X £ a,
donde a es algún punto en la línea real. También, si se reemplaza la
constante a por la variable independiente x, entonces se obtienen
funciones de probabilidades que ayudan a calcular las probabilidades de
eventos valorados numéricamente.
Así
pues, la variable aleatoria X induce una medida de probabilidad sobre la
línea real en la forma siguiente:
Si X puede tomar solamente
un número contable de valores distintos en el espacio muestral, entonces
X se llama una variable aleatoria
discreta; es decir, es una función que le asigna un número real x a cada resultado en S. Si X puede tomar un continuo
de valores (un número infinito incontable de puntos de muestra) dentro de uno o
más intervalos en la línea real, entonces X se denomina una variable
aleatoria continua. Se hace esta distinción porque ellas requieren
consideraciones diferentes en la asignación de probabilidades. El número de
llamadas telefónicas que llegan a una oficina es un ejemplo de una variable
aleatoria discreta, y el tiempo exacto de la llamada es un ejemplo de una
variable aleatoria continua.
El
lanzamiento de un dado no cargado constituye un experimento aleatorio. El
espacio muestral tiene seis eventos de interés. La variable aleatoria asociada
tiene solamente seis posibles valores numéricos: 1, 2, 3, 4, 5 y 6. Cada uno de
estos números reales corresponde a un evento específico.
Ejemplo 11. Se lanzan dos dados limpios. ¿Qué
suma de los números de las caras en los dos dados tiene la probabilidad máxima?
Solución.
Puesto que cada dado tiene seis caras, el principio básico del conteo dice que S tiene 36 resultados de un total de
y se tiene que X = 7 es la mejor apuesta. Observe que
el uso de la variable aleatoria X ha
permitido revisar sin mucho esfuerzo los
Hay
algunas variables aleatorias que aparecen con frecuencia en muchos contextos
diferentes y tienen sus propios nombres.
Variable Aleatoria Uniforme.
Ésta es una variable aleatoria X para
la cual
Las variables aleatorias uniformes
surgen naturalmente cuando se aplica el principio de simetría. Un ejemplo es el
lanzamiento de un dado honesto y tomando
En
este caso el espacio muestral es R
={1, 2, 3, 4, 5, 6} y b = 6.
Variables Aleatorias de Bernoulli.
Aquí el espacio es R = {0, 1} y
definimos
Ejemplos de este tipo de variables
aleatorias incluyen el lanzamiento de un dado cargado o la emisión de símbolos
en un canal binario simétrico.
Una
variable aleatoria de Bernoulli es uniforme si y sólo si
Ejemplo 12. Una
caja contiene cinco bolas rojas y siete azules. En cualquier otro respecto, las
bolas son idénticas. ¿Cuál es la probabilidad de que una bola escogida
aleatoriamente sea roja? ¿Cuál es una variable aleatoria apropiada para
describir esta situación?
Solución.
Tenemos un espacio muestral S que
contiene doce miembros. El evento de que escojamos una bola roja tiene cinco
miembros, por tanto, por el principio de simetría, la probabilidad requerida es
2.3.2 Función
de Distribución
Una vez asignada la variable aleatoria, es
posible realizar muchas formas de análisis. Se podría, por ejemplo, graficar
las diferentes probabilidades de los resultados en función de la variable
aleatoria. Una extensión de ese tipo de gráfica es la función de distribución.
La conducta de una variable aleatoria
es caracterizada por su distribución de probabilidades, es decir, por la forma
en que las probabilidades están distribuidas sobre los valores que asume. Una
función de distribución de probabilidades y una función de probabilidad de masa
son dos formas de caracterizar esta distribución para una variable aleatoria
discreta. Ellas son equivalentes en el sentido de que el conocimiento de
cualquiera de ellas especifica completamente la variable aleatoria. Las
funciones correspondientes para una variable aleatoria continua son la función
de distribución de probabilidades, definida en la misma forma que en el caso de
una variable aleatoria discreta, y la función de densidad de probabilidades.
Considérese el espacio muestral S de un experimento aleatorio. Si los
resultados de este experimento pueden ponerse en una correspondencia uno a uno
con los enteros positivos, el espacio muestral contendrá un número contable de
puntos. Se dice que un espacio así es un espacio
muestral discreto.
Dado
un experimento aleatorio con su variable aleatoria asociada X y dado un número real x, considérese la probabilidad del
evento
definida
para toda x desde -¥
hasta +¥.
Observe la notación con cuidado; el subíndice X identifica la variable
aleatoria cuyas características determinan la función de distribución FX(x),
en tanto que el argumento x define el evento X £ x
de modo que x no es una
variable aleatoria. Algunas veces se omite el subíndice cuando no existen
riesgos de confusión. Por ejemplo, el lanzamiento de una moneda no cargada
hasta que salga una cara es un experimento aleatorio. La variable x podría reemplazarse por cualquier otra
variable. El espacio muestral de este experimento es un espacio discreto. X corresponde al evento de la aparición
de la primera cara en el k-ésimo
lanzamiento. Entonces X toma los
valores
La
FDA es entonces la probabilidad de que X
tomará un valor que está en un subconjunto de S, donde el subconjunto es el punto x y todos los puntos que están a la ‘izquierda’ de x. Conforme x aumenta, el subconjunto incluye una mayor parte de la línea real
y el valor de la FDA aumenta hasta alcanzar el valor de 1. De modo que la FDA
de una variable aleatoria acumula la probabilidad a medida que x aumenta y de allí el nombre de función de distribución acumulativa
(FDA).
Puesto que la FDA representa una probabilidad,
debe tener las siguientes propiedades.
Propiedades
de la función FX(x):
puesto que el evento {X £ -¥} es imposible.
puesto que el evento {X < ¥} es cierto.
3.
ya que FX(x) es una probabilidad.
4. La función FX(x) es
monótona creciente; esto es,
Esta relación es un resultado directo de la
identidad
es decir, la función FX
es continua por la derecha.
Las
propiedades
y establecen
que la FDA existe para variables aleatorias discretas y continuas y tiene
valores entre 0 y 1. Es una función no negativa, continua desde la izquierda y
no decreciente de la variable real x.
Algunas
veces, la distribución acumulativa es más útil que la ley de probabilidades en
la solución de problemas prácticos.
Ejemplo 13. Sea
X una variable aleatoria discreta que
toma los valores -1,
1, 2 y 3 con probabilidades
La función se grafica en la Fig.
2.5. Es típico que una FDA asociada con una variable aleatoria discreta, que
sea creciente de 0 a 1, tenga una forma de “escalera”.
-2 -1 0 1 2 3 1/8 1/2 1 FX(x) x
Figura 2.5 FDA
de X para el Ejemplo 9.
Una
variable aleatoria continua toma un número de valores no numerables de la línea
real. Por tanto, la probabilidad de que una variable aleatoria continua asuma
cualquier valor en particular es igual a cero y por tanto para su FDA no hay
posibilidad de saltos discretos. El ejemplo siguiente ilustra una función de
distribución típica para variables aleatorias continuas.
Ejemplo 14. Determine los valores de las
constantes a y b de modo que
sea una función de distribución
válida.
Solución:
Puesto que u(-¥)
= 0, se satisface la propiedad 1 de FX(x) [Ec. .
La propiedad 2 de FX(x) [Ec. ]
se satisface si b > 0. Para cumplir con la propiedad 3 de FX(x),
se debe tener que
FX(x)
se grafica en la Fig. 2.6 para
FX(x) 0 x 1
2.3.3 Función
de Densidad
Una variable aleatoria continua toma un número incontable de
valores sobre la línea real. Puesto que una variable aleatoria continua tiene
un número incontable de valores posibles, la probabilidad de observar
cualquier valor particular X = a debe ser infinitesimalmente
pequeña en el sentido que
y como la derivada de FX es
única, se deduce que una variable aleatoria no puede tener más de una fdp.
Propiedades de fX(x):
1. Puesto que FX(x) es
monótona decreciente, claramente se tiene que
Si
X es discreta, entonces
donde P(xi)
= P(X = xi) y d(x)
es la función impulso.
Ejemplo 15. La fdp de una variable aleatoria X la
da la relación
donde k es una constante.
(a)
Determine el valor de k.
(b) Sean
a = -1
y b = 2. Calcule
Solución:
(a) Por
la propiedad 1 de fX(x) [Ec. ],
k debe ser una constante positiva. De la propiedad 2 de fX(x),
Ec. ,
a partir de la cual se obtiene
Una variable aleatoria X
que tenga la fdp anterior se denomina
una variable aleatoria uniforme y la distribución de denomina una distribución uniforme en (a, b).
Usando la Ec.
se obtiene la distribución acumulativa como
(b)
Con a = -1
y b = 2, se tiene que
la cual se grafica en la Fig. 2.7. De la Ec.
se obtiene que
1 2 –1 0 x fX(x)
Figura 2.7 Distribución uniforme.
Ejemplo 16. Una variable aleatoria X para la cual la función de densidad tiene la forma
se dice que está distribuida
exponencialmente. Se puede verificar fácilmente que se satisfacen todas
las condiciones dadas por las Ecs.
a .
La fdp se grafica en la Fig. 2.8(a) y la FDA asociada se muestra en la
Fig. 2.8(b). La forma funcional de la
FDA es
Ahora
se calcularán algunas de las probabilidades usando
Figura 2.8 (a) fdp
fX(x) y (b)
función de distribución FX(x) para la variable aleatoria X.
La
probabilidad
Las
mismas probabilidades se pueden obtener a partir de
Observe
que no hay diferencia numérica entre
2.3.4 Función
de Distribución Conjunta
A continuación se estudiará brevemente el caso de dos variables
aleatorias que pueden ser observadas en forma simultánea. Un ejemplo clásico de
esta situación es el experimento del lanzamiento de dardos, donde X y Y
son las coordenadas rectangulares de la posición del dardo en relación con el
centro del blanco. Otro ejemplo es la caracterización del peso y la altura en
una población dada. En estas situaciones, dos o más variables aleatorias se
consideran a la vez y el interés está la descripción de su comportamiento
conjunto. Supóngase que las dos variables aleatorias X y Y están
definidas en el espacio S. El evento
Considérese
ahora el caso de dos variables aleatorias X
y Y. La función de distribución acumulativa conjunta (FDA conjunta)
de X y Y se denota por
definida para toda x y y
desde -¥
hasta +¥.
Es la probabilidad de la intersección de dos eventos. Puesto que
de modo que
y
Las
Ecs.
y
muestran que las funciones de distribución de variables aleatorias individuales
se pueden deducir directamente a partir de su función de distribución conjunta.
Por supuesto, lo contrario no es cierto. En el contexto de varias variables
aleatorias, estas funciones de distribución individuales se denominan funciones de distribución marginales.
Por ejemplo, FX(x) es la función de distribución
marginal de X.
Supóngase
que la función de distribución conjunta
La función de distribución
conjunta
Integrando dos veces la Ec. ,
se obtiene
y
Es
decir, el volumen total bajo la gráfica de una función de densidad de
probabilidades conjunta es igual a la unidad. También, con x1 < x2
y y1 < y2,
Ejemplo 17. La fdp conjunta de X y Y está dada por
donde
a y b son constantes positivas y la función escalón unitario se
define por
Determínese el valor de la constante k.
Solución:
El valor de k se determina a partir de la Ec. ,
es decir,
Por lo tanto,
k = ab.
2.3.5 Distribuciones
Marginales
En el estudio de las propiedades conjuntas de varias variables
aleatorias, las funciones FX(x) y FY(y),
por ejemplo, se denominan distribuciones
acumulativas de probabilidades marginales si son deducidas a partir de
las relaciones
Las funciones de densidades de
probabilidades marginales (fdp marginales) fX(x)
y fY(y) son dadas por
Así pues, al diferenciar las Ecs.
y ,
se obtiene
Es decir, la fdp para X solamente, por ejemplo, se puede obtener a partir
de la fdp conjunta observando que
Ejemplo 18. En los análisis de confiabilidad estructural, la
resistencia Y de un elemento
estructural y la fuerza X aplicada al
elemento generalmente se consideran como variables aleatorias. La probabilidad
de falla, pf, se define
como
donde a y b son constantes positivas conocidas. Se
desea determinar pf.
La probabilidad pf se determina a partir de
en la cual R
es la región que satisface la condición Y
£ X.
Puesto que X y Y sólo toman valores positivos, la región R es la mostrada en la Fig. 2.9. Por tanto,
R X = Y X Y
Figura 2.9 Región R
para el Ejemplo14.
Ejemplo 19. La fdp
conjunta de dos voltajes de ruido es
Por la Ec. , la fdp
marginal para X solamente es
donde se hizo el cambio de variable
Como se demostrará más adelante, las
variables X y Y no son independientes ya que
Ejemplo 20.
Se dice que las variables aleatorias X y Y
son normales conjuntas si su fdp conjunta está dada por
(a) Halle
las fdp marginales de X y Y.
(b)
Demostrar que X y Y
son independientes cuando r
= 0.
Solución:
(a)
Por la Ec. ,
la fdp marginal de X es
Completando el cuadrado en el
exponente de la Ec. ,
se obtiene
Como se verá más adelante, ésta es
una fdp normal. Así que la integral
debe ser igual a uno y se obtiene
En
una forma similar,
(b) Cuando
r
= 0, la Ec.
se reduce a
Por
lo tanto, X y Y son independientes.
2.3.6 Distribución
Condicional
La función
de distribución acumulativa de la probabilidad condicional de X
dado el evento B se define como
donde P(X £ x,
B) es la probabilidad del evento conjunto
La función de densidad de la
probabilidad condicional (fdp
condicional) de X dado B es simplemente
Sean X y Y dos
variables aleatorias definidas en S. Entonces, usando la definición de
la probabilidad condicional, la fdp
condicional de X dado el evento
donde
fY(y) es la fdp
marginal de Y.
2.3.7 Variables
Aleatorias Independientes
Las variables aleatorias X y Y se denominan independientes
si
o
esto es, su fdp conjunta es el producto de sus fdp marginales. Así pues, si X y Y son
independientes, entonces de las Ecs.
y ,
2.4 Funciones
de Variables Aleatorias
Ahora
se desarrollará una expresión general para la función de distribución
resultante cuando la nueva variable aleatoria es una función de otra variable
aleatoria con una función de distribución conocida.
2.4.1 La Variable Aleatoria g(X)
Recuerde del cálculo que una función
compuesta
Dada una variable aleatoria X con
función de densidad conocida y una función g(x), la expresión
es
una nueva variable aleatoria Y (se
supone que ésta es una función continua de X).
Para un valor de l
dada en S, X(l)
es un número y g[X(l)]
es otro número, que es el valor de Y(l)
= g[X(l)]
asignado a la variable aleatoria y. Entonces
2.4.2 Determinación
de fY(Y)
Supóngase que se conoce fX(x)
y se desea determinar fY(y) para la variable aleatoria
relacionada con X por la Ec. .
El evento
Los
dos eventos son idénticos puesto que ellos incluyen los mismos resultados. Por
el momento se supone que g(x) es una función unívoca. Como los
eventos son idénticos, sus probabilidades deben ser iguales, es decir,
y,
en función de las densidades,
Si
ahora se toma x2 muy cerca
de x1, en el límite la Ec.
se convierte en
y,
finalmente,
Si
y1 > y2 , la pendiente de la curva
es negativa y se encontraría que
Se
pueden incluir ambos casos escribiendo
Finalmente,
si se escribe
Si la función g(x) no es monótona, el
evento
En
términos de las funciones de densidad, esto significaría que
Como se ve en este ejemplo, dos o más valores de X producen el mismo valor de Y. Para
hallar la fdp correspondiente fY(y),
se subdivide g(x) en un conjunto de funciones monótonas definidas en intervalos de
x diferentes y se resuelve la
ecuación y = g(x). Denotando sus raíces reales por xk,
se tiene que
Por
tanto
donde
g'(x) es la derivada de g(x). Esta relación es
válida para cualquier función monótona.
Examínese
ahora, como ejemplo, la sencilla relación
La
transformación
Considérese
la FDA de Y,
La
región definida por Y £ y en el recorrido de Y cubre la porción gruesa de la curva de
transformación, como se muestra en la Fig. 2.10, que, en el recorrido de X, corresponde a la región
es
la función inversa de g(x), o la
solución de x en la Ec.
en términos de y. Por lo tanto,
La
Ec.
da la relación entre la fdp de X y la de Y, el resultado que se busca.
La relación entre las fdp
de X y Y se obtiene diferenciando ambos lados de la Ec.
con respecto a y. Se obtiene
Está claro que las Ecs.
y
se cumple no sólo para la transformación particular dada por la Ec. ,
sino para todas las funciones
Ejemplo 21.
Un voltaje aleatorio v se pasa a
través de un rectificador de onda completa. El voltaje de entrada está
distribuido uniformemente entre -2 y +2 V.
Halle la densidad de la salida del rectificador de onda completa.
g(v) fV (v) v v -2 2
Figura
2.11
Solución: Denotando la salida por y, se tiene entonces que y
= g(v), donde g(v) tiene la densidad V y se ilustra en la Fig. 2.11. Obsérvese
que la variable aleatoria se ha tomado igual al valor del voltaje. Para cada
valor de V,
El resultado se muestra en la Fig. 2.12.
2 y 0 fY(y)
Ejemplo 22.
Sea Y = 2X + 3. Si una variable aleatoria X está
distribuida uniformemente en
; determine fY(y) y dibuje fX(x)
y fY(y).
Solución:
Del Ejemplo 7 se sabe que
La
ecuación y = g(x) = 2x + 3 tiene una sola solución x1
= (y -
3)/2, el intervalo de y es [1, 7] y g'(x) = 2. Así que
Las
fdp fX(x) y fY(y)
se muestran en la Fig. 2.13.
0 y x 1/3 2 1 –1 0 fY(x) fX(x) 1 7 3 5
Figura 2.13
Ejemplo 23. La fdp
de una variable aleatoria X es dada
por la distribución de Cauchy:
Determine
la fdp de Y si
Solución:
La transformación dada por esta última ecuación es estrictamente monótona. Por
tanto, se puede aplicar la Ec.
y se tiene que
y
y
siguiendo la Ec. ,
el resultado es
2.4.3 Una
Función de Dos Variables Aleatorias
Dadas dos variables
aleatorias X y Y y una función g(x, y), la
expresión
es
una nueva variable aleatoria. Con z un número dado, se denota por Dz
la región del plano xy tal que
donde
{(X, Y) Î Dz}
es el evento consistente de todos los resultados l
tales que el punto [X(l)Y(l)]
está en Dz. Por tanto,
La
fdp de Z puede determinarse a
partir de la relación
Supóngase
que
donde
z0 y x z0
Figura
2.14 Región para la cual
Se sabe que si los eventos son independientes, la probabilidad de
su combinación es el producto de las probabilidades. Así fue cómo se determinó
que la probabilidad CS (cara-sello) en el experimento del lanzamiento de la
moneda es
En
la Ec.
si x y y son independientes,
Ahora se diferencia la Ec.
para hallar la función de densidad:
La
Ec.
tiene una interpretación muy sencilla. La densidad de la suma de dos variables
aleatorias independientes es igual a la convolución de las dos densidades
individuales.
2.4.4 Dos
Funciones De Dos Variables Aleatorias
Dadas las variables aleatorias X y Y con fdp conjunta fXY(x,
y) y dos funciones g(x, y) y
Para
hallar la fdp conjunta fZW(z,
w), se resuelve el sistema
Denotando
por (xk, yk) sus raíces
z
= g(xk, yk) w = h(xk,
yk)
entonces
donde
y
J(x, y) es el jacobiano
de la transformación .
2.5 Promedios Estadísticos
Para
algunos propósitos, una función de probabilidad proporciona más información
sobre una variable aleatoria que la que realmente se necesita. En efecto, la
descripción completa de una variable aleatoria, muchas veces puede resultar más
confusa que instructiva. Por ello, con frecuencia es más conveniente describir
una variable aleatoria mediante algunos números
característicos. Estos números son los diferentes promedios estadísticos que se presentan a
continuación. Estos promedios son importantes en el estudio de las comunicaciones.
2.5.1 Valor Esperado
El valor esperado, media o primer
momento de una variable aleatoria continua X es una
constante que es igual a la integral de los valores de X ponderados por
su función de probabilidades, es decir,
Si
X es discreta, entonces usando la Ec. se
tiene que
Para
un caso igualmente probable, es decir, cuando P(xi) =
1/N (i = 1, 2, ... , N), la Ec.
se convierte en el promedio
aritmético de xi:
La operación de determinar el valor esperado
de X, E[X], también se conoce como la operación de
esperanza que produce
El valor esperado de la variable aleatoria Y
proveniente de la transformación Y = g(X) está dado por
o
Si
X es discreta, entonces, igual que en la Ec. .
la Ec.
da
El valor esperado de Z = g(X, Y) está
dado por
o
Si
X y Y son variables aleatorias discretas, la Ec.
da
donde P(xi, yk) = P[X
= xi, Y = yk].
Observe que la operación de esperanza
es lineal, es decir,
donde
c es una constante.
Ejemplo 24. Para
la distribución exponencial con parámetro l
y
0 £ x < ¥,
su valor esperado es
2.5.2 Momentos
y Varianza
Sea
o, para una variable aleatoria discreta,
El segundo momento
o, para una variable aleatoria discreta usando la
sumatoria análoga,
El valor cuadrático medio será de particular
importancia cuando se estudien señales aleatorias y ruido.
El n-ésimo
momento central de X se define por
donde
mX
= E[X].
El segundo momento central de
X se denomina la varianza
de X, es decir,
La
raíz cuadrada positiva de la varianza, denotada sX,
se denomina la desviación estándar de X. La varianza o la desviación
estándar es una medida de la “dispersión” de los valores de X en
relación con su media mX.
Valores grandes de
o
Por
tanto, la desviación estándar es igual a la raíz cuadrada del valor cuadrático
medio menos el valor medio al cuadrado.
Como
una interpretación de
indiferente
de
Con
k = 2, por ejemplo, se espera que k ocurra dentro de la banda
La
demostración de
se deja como un ejercicio.
Ejemplo
25. Para ilustrar el
cálculo de promedios estadísticos, se considerarán tres ejemplos:
1. Supóngase que la variable aleatoria X está distribuida uniformemente, como
muestra la Fig. 2.15. Determinar
Solución:
x fX(x) 2p
Figura
2.15
2. Tómese el caso donde
con a una constante
positiva. Esta fdp describe una
variable aleatoria continua con una distribución de Laplace.
Usando la simetría de fX(x),
se determina entonces que
En consecuencia,
3. El tiempo de espera X (en minutos) de un cliente para pagar cierto servicio tiene la
función de densidad
Determínese el tiempo de espera
promedio.
Por la Ec. ,
integrando por partes se obtiene
2.5.3 Momentos
Conjuntos y Covarianza
Sean X y Y
dos variables aleatorias con fdp
conjunta fXY(x, y). El momento conjunto
de X y Y se define por
donde
n y k son enteros positivos cualesquiera. La suma n + k
se llama el orden del momento.
Un
momento conjunto para el caso especial n = k = 1 se denomina la correlación
de X y Y, denotada por RXY:
La
covarianza de X y Y
es simplemente la correlación menos su valor medio, es decir,
Expandiendo
la Ec. ,
obtenemos que la correlación y la covarianza están relacionadas por
El
coeficiente de correlación
de X y Y se define por
donde
sX
y sY
son las desviaciones estándar de X y Y, respectivamente.
Ejemplo 26. Sean X y Y variables aleatorias reales con segundos
momentos finitos. Demuestre que
Ésta
se conoce como la desigualdad de
Cauchy-Schwarz.
Solución:
Como el valor cuadrático medio de una variable aleatoria nunca
puede ser negativo, se tiene entonces que
para cualquier valor de a. Expandiendo
esta relación, se obtiene
Escójase un valor de a
para el cual el lado izquierdo de esta desigualdad sea mínimo, es decir, tome
lo que resulta en la desigualdad
o
Ejemplo 27. Demuestre
que
Solución: De la
desigualdad de Cauchy- Schwarz, Ec. ,
se obtiene la relación
o
Entonces
de
donde se deduce que
Se dice que dos variables
aleatorias X y Y no están correlacionadas si y sólo si su
covariancia es cero, es decir,
De
las Ecs.
y se
concluye que X y Y no están correlacionadas si y sólo si
Dos variables aleatorias X y Y
se denominan ortogonales si
De
la Ec.
es obvio que si X y Y son variables aleatorias no correlacionadas
con valores medios iguales a cero, entonces X y Y no pueden ser
ortogonales.
Debemos recalcar una vez más que el
coeficiente de correlación mide solamente la interdependencia lineal entre dos
variables aleatorias. De ninguna manera es una medida general de la
interdependencia lineal entre X y Y. Así, r
= 0 no implica la independencia de las variables aleatorias.
2.5.4 Función
Generadora de Momentos
La función generadora de
momentos de una variable aleatoria X se define por
donde
l
es una variable real. Entonces
donde
2.5.5 Funciones
Características
La función
característica de una variable aleatoria X es una esperanza que involucra
una variable auxiliar w
y se define por
donde
w
es una variable real. Esta función es máxima en el origen y
Como
se ve en la Ec. ,
FX(w)
es la transformada de Fourier (con el signo de j invertido) de fX(x).
Es decir, la función característica y la fdp
de una variable aleatoria constituyen un par de transformadas de Fourier.
Debido a este hecho, si se conoce FX(w),
fX(x) puede determinarse a partir de la transformada
de Fourier inversa:
La función característica conjunta de
X y Y se define por la relación
donde
w1
y w2
son variables reales. Esta expresión se conoce como la transformada de Fourier
bidimensional (con el signo de j invertido) de fXY(x,
y). De la transformada de Fourier inversa se obtiene
De
las Ecs.
y se
tiene que
las
cuales se denominan funciones características marginales.
Ahora, para la fdp de una suma de variables aleatorias independientes, sea Z
= X + Y y se usa la Ec.
para escribir
Entonces,
por el teorema de la convolución, se tiene que
Un
cambio de variables produce el resultado final
Así
pues, la fdp de X + Y
es igual a la convolución de fX(x) y fY(y)
cuando X y Y son independientes.
2.6 Distribuciones
Especiales de Uso Frecuente
Ensayos
de Bernoulli. Muchas situaciones prácticas
pueden describirse mediante la realización repetida de un experimento de la
naturaleza básica siguiente: se realiza una secuencia de ensayos de modo que
(a) para cada ensayo sólo hay dos resultados posibles, dígase, éxito y fracaso
(no éxito); (b) las probabilidades de que ocurran estos resultados permanecen
iguales durante todos los ensayos; y (c) los ensayos se realizan en forma
independiente. Los ensayos realizados bajos estas condiciones se denominan ensayos de Bernoulli (ya mencionados
anteriormente). A pesar de lo simple de la situación, los modelos matemáticos
obtenidos a partir de este experimento básico tienen amplias aplicaciones.
Denótese el “éxito” de un evento por E
y su “fracaso” por F. También, sea
y, debido a la independencia, las
probabilidades de estos resultados posibles se calculan fácilmente. Por
ejemplo,
Varios de estos resultados posibles con sus probabilidades asociadas son
de interés práctico.
Se han diseñado y estudiado muchas funciones
de probabilidades como modelos para diferentes fenómenos aleatorios. Ya se
presentó la función de densidad uniforme. Aquí se estudian las propiedades de varias
de esas funciones. Estos modelos, en conjunto con las distribuciones uniforme y
de Laplace, cubren la mayoría de los casos encontrados en nuestro trabajo.
2.6.1 Distribución Binomial
Considérese un experimento aleatorio con sólo dos resultados
posibles, E1y E2 (ensayos de Bernoulli).
Supóngase que la probabilidad de que ocurra E1
es p y de que ocurra E2 es
donde
es
el coeficiente binomial en el teorema del binomio
La
relación dada por la Ec.
se deduce en la forma siguiente: La probabilidad de cualquier secuencia que tenga
k eventos E1 y n - k
eventos E2 es
El modelo binomial describe una variable
aleatoria discreta X de valores
enteros asociada con ensayos repetidos. Específicamente, se dice que una
variable aleatoria X tiene una distribución binomial de orden n
si toma los valores 0, 1, ... , n con
donde
0 < p < 1, p + q = 1, k = 0, 1, ... , n.
La fdp
de X está dada por
La
función de distribución correspondiente es una función escalonada
Los promedios estadísticos de una variable
aleatoria binomial se obtienen introduciendo la Ec.
en la fórmulas apropiadas para la esperanza. La media y la variancia de X
son
La demostración de la Ec.
procede en la forma siguiente:
Como
se mencionó, la variable aleatoria binomial X es una variable aleatoria
discreta de valores enteros asociada con ensayos repetidos de un experimento.
Considérese la ejecución de algún experimento en el cual se observa solamente
si el evento A ocurre. Si A ocurre, al experimento lo llamamos un
éxito; y si no ocurre (ocurre el complemento
1.
P(A)
es constante en cada ensayo.
2.
Los n ensayos son
independientes.
Un
punto en el espacio muestral es una sucesión de A’es y
Una variable
aleatoria binomial corresponde entonces al número de veces que ocurre un
evento con probabilidad p en n ensayos independientes de un
experimento aleatorio.
En el estudio de las comunicaciones, la
distribución binomial se aplica en la transmisión digital cuando X
representa el número de errores en un mensaje de n dígitos.
Ejemplo 28. ¿Cuál
es la probabilidad de obtener exactamente tres 1 en cinco lanzamientos de un
dado? ¿Cuál es la probabilidad de obtener como máximo dos 1?
Solución:
De acuerdo con la Ec. ,
para
Para
la segunda parte del problema,
Ejemplo 29. Una fuente binaria genera los dígitos 1 y 0 aleatoriamente con
probabilidades de 0.6 y 0.4, respectivamente.
(a)
¿Cuál es la probabilidad de que
ocurran dos 1’os y tres 0’os en una secuencia de cinco dígitos?
(b)
¿Cuál es la probabilidad de que
ocurran al menos tres 1’s en una secuencia de cinco dígitos?
Solución:
(a)
Sea X la variable aleatoria
que denota el número de ‘unos’ generados en una secuencia de cinco dígitos.
Puesto que sólo hay dos resultados posible (1 o 0) y la probabilidad de generar
un 1 es constante y hay cinco dígitos, está claro que X tiene una
distribución binomial descrita por la Ec.
con n = 5 y k = 2. En consecuencia, la probabilidad de que
ocurran dos unos y tres ceros en una secuencia de cinco dígitos es
(b)
La probabilidad de que al menos
ocurrirán tres ‘unos’ en una secuencia de cinco dígitos es
donde
Por
tanto,
Ejemplo 30. En una casa
nueva se acaban de instalar 20 bombillos. Suponga que cada bombillo tiene una
probabilidad de 0.2 de funcionar más de tres meses. ¿Cuál es la probabilidad de
que al menos cinco de ellos funciones más de tres meses? ¿Cuál es el número
promedio de bombillos que se tienen que reemplazar en tres meses?
Solución.
Es razonable suponer que los bombillos funcionan de forma independiente. Si X es el número de bombillos que
funcionan por más de tres meses, tiene una distribución binomial con n = 20 y p = 0.2. La respuesta a la primera pregunta es entonces dada por
El número promedio de reemplazos es
2.6.2 Distribución Geométrica
El espacio
muestral de la distribución geométrica es el conjunto de todos los enteros no
negativos y la distribución de probabilidades viene dada por
donde
p es un parámetro de la distribución
(p está comprendido entre 0 y 1).
La distribución geométrica se origina a
partir de ensayos de Bernoulli, por ejemplo, cuando se desea evaluar la primera
vez que se produce un evento A de
probabilidad p en una sucesión
infinita de realizaciones independientes de un experimento aleatorio. Su valor
medio, correspondiente al tiempo promedio de aparición de un evento, puede
calcularse como
Se
sabe que
En
la demostración anterior, se permite el intercambio de la suma y la
diferenciación porque
La distribución geométrica se utiliza en las
comunicaciones digitales para estimar el tiempo medio transcurrido antes de que
se produzca un error en una transmisión digital.
Ejemplo 31. Un conductor está ansioso buscando un buen
espacio para estacionarse en la calle cerca de su oficina. Hay cinco autos
delante del conductor y cada uno tiene una probabilidad de 0.2 de ocupar el
espacio. ¿Cuál es la probabilidad de que el auto inmediatamente delante de él
ocupará el espacio para estacionarse?
Solución:
Para este problema se tiene una distribución geométrica y se necesita evaluar
que
parece ser mucho menor que nuestra experiencia en situaciones similares.
2.6.3 Distribución
de Poisson
Se dice que una variable
aleatoria X tiene una distribución de Poisson con parámetro a
si toma los valores
La
fdp de X está dada por
La
función de distribución acumulativa correspondiente es una función escalonada
La media y la variancia de X son
Se debe señalar que FX(x)
satisface las condiciones requeridas para una función de distribución. De
hecho, FX(x) es monótona creciente y, además,
La distribución de Poisson surge en algunos
problemas que involucran conteos, por ejemplo, el monitoreo del número de
llamadas telefónicas que llegan a un centro de conmutación durante diferentes
intervalos de tiempo, el número de días que una escuela está cerrada debido a
la falta de pago de los maestros o el número de juegos suspendidos debido a la
lluvia durante una temporada de béisbol. En la comunicación digital, la
distribución de Poisson está relacionada con el problema de la transmisión de
muchos bits de datos cuando las tasas de error son bajas. En estos casos, el
manejo de la distribución binomial se hace engorroso. Sin embargo, si el valor
medio de la tasa de error permanece finito e igual a a,
es posible aproximar la distribución binomial por la de Poisson.
Ejemplo 32. Demuestre
que cuando n es muy grande (n >> k) y p muy pequeña (p << 1), la distribución binomial
[Ec. ]
puede ser aproximada por la siguiente distribución de Poisson [Ec. ]:
Solución: De
la Ec.
se tiene que
Cuando
n >> k y p << 1, entonces
Sustituyendo
estas relaciones en la Ec. ,
se obtiene
Así
pues, en el caso binomial, si el número de ensayos n se vuelve razonablemente grande y la probabilidad de éxito
individual p es relativamente
pequeña, de modo que su producto
Ejemplo 33. Sea X una variable
aleatoria de Poisson definida por la Ec. ,
(c) Demuestre
que
(d) Verifique
las Ecs.
y ,
es decir, las relaciones dadas por
Solución:
(a) De
la Ec. ,
se tiene
Así
que
(b) Por
la Ec. ,
En forma similar,
o
Así que
Usando entonces la Ec.
se obtiene
Ejemplo 34.
Supóngase que la probabilidad de que un transistor fabricado por una cierta
compañía sea defectuoso es 0.015. ¿Cuál es la probabilidad de que no haya un
transistor defectuoso en un lote de 100?
Solución: Sea X el número de transistores defectuosos en el lote de 100. La
probabilidad buscada es
Como
n es grande y p es pequeña en este caso, la aproximación de Poisson es apropiada
y se obtiene
que
está bastante cerca de la respuesta exacta. En la práctica, la aproximación de
Poisson se usa frecuentemente cuando n
> 10 y p < 0.1.
2.6.4 Distribución
Normal (o Gaussiana)
La
densidad más común, y más importante, encontrada en el mundo real es la función de densidad gaussiana o normal. El modelo gaussiano describe una
variable aleatoria continua que tiene la distribución normal encontrada
en muchas aplicaciones diferentes en ingeniería, física y estadística. La
asombrosa versatilidad de este modelo proviene del teorema del límite
central, el cual en esencia dice que
Si
X representa la suma de N componentes aleatorios
independientes y si cada componente sólo hace una pequeña contribución a la
suma, entonces la FDA de X
tiende a una FDA gaussiana conforme N
se hace grande, indiferentemente de la distribución de las componentes
individuales.
Una variable aleatoria
continua X es gaussiana
(o normal) si tiene media m, variancia s2
y si su fdp es de la forma
donde
m
y s
> 0 son constantes dadas y es simétrica en torno a x = m.
El recorrido de fX es todo
de
modo que los valores observados de X tienen la misma probabilidad de
caer por encima o por debajo de la media. El otro parámetro s
indica la dispersión de la densidad. La evaluación de la integral de
Figura
2.16 Distribución normal
(gaussiana).
La distribución normal es
de mucha importancia en la teoría y aplicaciones de la probabilidad. Es una
aproximación razonable a distribuciones empíricas en muchos problemas y se usa
hasta en casos que involucran variables aleatorias cuyo dominio es un intervalo
finito (a, b). En esos casos, la aproximación es posible si la curva normal es
truncada y escalada adecuadamente o si su área es despreciable fuera del
intervalo (a, b).
La función de distribución acumulativa de X correspondiente es
Ejemplo 35. Demostrar
que la función fX(x) de la Ec.
es una función de densidad; es decir, demostrar que
Solución:
Para facilitar la demostración, se desplaza la curva de densidad hacia la
izquierda por m
unidades. A continuación, se considera la integral doble
Ahora
se introducen coordenadas polares y se obtiene
La integral en la Ec.
no puede ser evaluada en una forma cerrada y debe evaluarse numéricamente. Es
conveniente usar la función Q(z), la cual se define como
Entonces
la Ec.
puede escribirse como
La función Q(z) se presenta
como la función de error complementaria, o simplemente como la función Q
y está tabulada en el apéndice al final del texto. Una compañera de la función Q es la función de error, definida por la integral
Mediante
un cambio de variables se puede obtener la relación entre la función Q y la función de error; ella es
La fdp
y la función de distribución de X se grafican en las Figs. 2.15a y b,
respectivamente. La media y la variancia de X son
Se usará la notación
Ahora que se conoce la densidad gaussiana, se
hablará un poco de por qué ocurre con tanta frecuencia en el mundo real. Ella
resulta siempre que un gran número de factores contribuyen a un resultado
final, como en el caso de la estática en una radio. Dos condiciones deben
cumplirse antes de que la suma de muchas variables aleatorias comience a
parecerse a una gaussiana. La primera se relaciona con las variancias
individuales y su sumatoria infinita. La
segunda condición se satisface si las densidades componentes se hacen cero fuera de alguna banda (ésta es
una condición necesaria pero no suficiente). Puesto que todas las cantidades
con las que se trabaja en el mundo real tienen bandas acotadas, ellas
satisfacen esta condición.
2.6.5 Distribución
de Rayleigh
La densidad
de Rayleigh es de interés debido a su relación especial con la densidad
gaussiana. El modelo de Rayleigh describe una variable aleatoria continua
producida a partir de dos variables aleatorias gaussianas en la forma
siguiente:
Si X y Y son
variables aleatorias gaussianas independientes con media igual a cero e igual variancia
Como se ilustra
en la Fig. 2.17, el modelo de Rayleigh se aplica a cualquier conversión de
rectangular a polar cuando las coordenadas rectangulares son gaussianas
idénticas pero independientes y tienen media igual a cero.
Φ x y Y 0 X R
Figura
2.17 Conversión
de rectangular a polar.
Para deducir la fdp de Rayleigh correspondiente, se introduce el ángulo aleatorio F
de la Fig. 2.13 y se comienza con la relación de la fdp conjunta
donde
Como X y Y son
gaussianas independientes con m = 0 y variancia
s2,
Por lo tanto, incluyendo al
escalón u(r) para reflejar el hecho de que r ³
0, se tiene que
El ángulo no aparece
explícitamente aquí, pero su recorrido está claramente limitado a 2p
radianes. Es decir, la variable aleatoria F
que representa la fase está distribuida
uniformemente en el intervalo de 0 a 2p.
Ahora se obtiene la fdp para R solamente integrando la Ec.
con respecto a j.
Tomando ya sea
la
cual se grafica en la Fig. 2.18. Esta función de distribución es independiente
del punto en el plano con respecto al sistema de coordenadas de referencia. En
otras palabras, tiene una distribución uniforme entre cero y 2p.
Figura 2.18
fdp de Rayleigh.
La
media y el segundo momento de R son
Para cálculos de probabilidades, la fdp
de Rayleigh toma la forma más sencilla
obtenida al integrar fR(l)
en 0 £ l £ r.
Regresando a la Ec. ,
obtenemos la fdp marginal para el
ángulo aleatorio F
usando
de modo que F
tiene una distribución uniforme de recorrido 2p
radianes. También notamos que
PROBLEMAS
2.1
Demuestre que si los eventos A
y B son independientes, entonces
2.2
El resultado de un experimento es
un entero N cuyo valor tiene la misma posibilidad de ser cualquier
entero en el intervalo 1 £ N
£
12. Sean A el evento que N es impar, B el evento que N
es exactamente divisible por 3 y C el evento que N es exactamente
divisible por 4. Dibuje el diagrama de Venn correspondiente y determine las
probabilidades de los eventos A, B, C, A Ç B,
A Ç C,
B Ç C,
y
2.3
Una moneda está cargada de modo
que P(C) = (1 + e)/2
con 0 < |e|
< 1 (C = cara). Demuestre que la probabilidad de que dos lanzamientos
independientes produzcan el mismo resultado será mayor que 1/2.
2.4
Una cierta computadora deja de
operar si dos componentes CA y CB fallan al
mismo tiempo. La probabilidad de que CA falle es 0.01 y la
probabilidad de que CB falle es 0.005. Sin embargo, la
probabilidad de que CB falle es aumentada por un factor de 4
si CA ha fallado. Calcule la probabilidad de que la
computadora deje de operar. Determine también la probabilidad de que CA
falle si CB ha fallado.
2.5
Si A y B son independientes
con
donde
2.6
Una moneda no cargada se lanza dos
veces y se da una información parcial sobre el resultado. (a) Halle la
probabilidad de resultados iguales cuando se dice que en el primer lanzamiento
salió cara. (b) Halle la probabilidad de
resultados iguales cuando se dice que salió cara en por lo menos un lanzamiento. (c) Halle la probabilidad de cara en por lo
menos un lanzamiento cuando se dice que ocurrieron dos resultados iguales.
2.7
Repita el Prob. 2.6 para una
moneda cargada con P(C) = 1/4.
2.8
Un satélite puede fallar por
muchas razones, dos de las cuales son falla de computadora y falla de máquina.
Para una misión dada, se sabe que
La
probabilidad de falla de máquina es 0.008.
La
probabilidad de falla de computadora es 0.001.
Dada
una falla de máquina, la probabilidad de falla del satélite es 0.98.
Dada
una falla de computadora, la probabilidad de falla del satélite es 0.45.
Dada una falla de cualquier otra
componente, la probabilidad de falla del satélite es 0.45.
(a) Determine
la probabilidad de que un satélite falle.
(b) Determine
la probabilidad de que un satélite falle y que ello se deba a falla de máquina.
(c) Supóngase
que las máquinas de satélites diferentes funcionan independientemente. Dado que
un satélite ha fallado como un resultado de falla de máquina, ¿cuál es la
probabilidad de lo mismo le sucederá a otro satélite?
2.9
Una caja contiene 10 monedas
honestas con P(C) = 1/2 y 20 monedas cargadas con
2.10
Repita el Prob. 2.9 para el caso
cuando la moneda extraída es lanzada tres veces.
2.11
La urna A contiene siete dólares de plata y una moneda de 10 dólares de
oro. La urna B contiene 10 dólares de
plata. Se sacan nueve monedas de B y
se colocan en A; entonces se
seleccionan ocho de las 17 monedas en A
y se colocan de regreso en la urna B.
Si fuese a escoger una de las dos urnas, ¿cuál de las dos seleccionaría?
2.12
Un jugador tramposo posee un dado
cargado en el cual el número 1 sale con probabilidad 2/3 y los números 2 a 6
con probabilidades iguales a 1/15 cada uno. Desafortunadamente, dejó su dado
cargado en una caja con dos dados legales y no pudo diferenciarlos. Escoge un
dado (al azar) de la caja, lo lanza una vez y aparece el número 1. Condicionado
a este resultado, ¿cuál es la probabilidad de que el escogió el dado cargado?
Lanza el dado una vez más, y se nuevo sale un 1. ¿Cuál es la posibilidad de que
después de este segundo lanzamiento el jugador escogió el dado cargado?
2.13
Se dispara a un blanco con un
rifle. Suponiendo que la probabilidad de dar en el blanco es 0.9 para cada
disparo y que los disparos son independientes, calcule la probabilidad de que,
para dar en el blanco:
(a) Se
requieren más de dos disparos.
(b) El
número de disparos requeridos está entre cuatro y seis (inclusive).
2.14
Sea
2.15
Supóngase que una cierta variable
aleatoria tiene la FDA
Evalúe K, escriba la fdp correspondiente y determine los
valores de P(X £
5) y
2.16
Repita el Prob. 2.15 con la
distribución
2.17
La vida X, en horas, de un cierto tipo de componente electrónica, tiene una
fdp dada por
Determine la probabilidad de que
una componente sobrevivirá 150 horas de operación.
2.18
El tiempo, en minutos, que un
estudiante requiere para ir desde su casa hasta una clase en la mañana está
distribuido uniformemente entre 20 y 25. Si el estudiante sale de su casa a las
7:38 a.m., en punto, ¿cuál es la probabilidad de que el estudiante no llegará
tarde para su clase a las 8:00 a.m.?
2.19
Sea
2.20
Una variable aleatoria X tiene recorrido 0 < x < 2 y una distribución acumulativa
(a) Halla
la fdp para X.
(b) Calcular
2.21
Supóngase que X tiene una fdp uniforme en el intervalo -1
£ x
£
3. Determine y grafique la fdp de Z
definida por la transformación
2.22 Halle
la densidad de
fX(x) 1/3 -1 2 x
Figura 2.19
2.23
Una función está definida por
2.24
Una variable aleatoria X tiene fdp
en
(0, 4).
(a) Confirme
que f es realmente una fdp.
(b)
Calcula la distribución
acumulativa de X.
(c)
Calcular
2.25
En la Fig. 2.20 se muestra la
función de densidad de x. Una
variable aleatoria, y, está
relacionada con x en la forma
mostrada. Determine fY(y).
fX(x) ½
2
x x ½
1 2 2 -2 y
Figura 2.20
2.26 Determinar
fY(y) cuando
2.27
Sean X1, X2
y X3 variables aleatorias
independientes, donde cada una toma los valores
Demuestre que cualesquiera dos de
estas nuevas variables aleatorias son independientes pero que Y1, Y2 y Y3
no son independientes.
2.28
Calcule la constante c de modo que
sean una fdp en
2.29
Determine la media, el segundo
momento y la desviación estándar de X cuando
2.30
Determine la media, el segundo
momento y la desviación estándar de
2.31
La caminata aleatoria
unidimensional puede ser descrita en la forma siguiente: Un hombre ebrio
camina por un pasillo angosto con pasos de igual longitud l. Camina
hacia delante con probabilidad a
= ¾ o hacia atrás con probabilidad 1 - a
= ¼. Sea X su distancia hasta el punto de partida después de 100 pasos.
Determine la media y la desviación estándar de X.
Resp. 50l,
2.32
Un canal de transmisión ruidoso
tiene una probabilidad de error por dígito igual a
2.33
Suponga que se transmiten 10000 dígitos por un canal ruidoso que tiene
una probabilidad de error por dígito de p = 5 ´
10-5.
Determine la probabilidad de que no ocurrirán más de dos errores de dígitos.
Resp.
0.9856
2.34
Se sabe que un voltaje tiene una
distribución gaussiana con valor medio igual a 4. Cuando este voltaje se aplica
a un resistor de 4 W,
la potencia promedio disipada es 8 W. Halle la probabilidad de que el voltaje
sea mayor que 2 V en cualquier instante.
2.35
Un resistor ruidoso produce un
voltaje Vn(t). En t = t1, se
sabe que el nivel de ruido
Calcule
la probabilidad de que
2.36
Dada la variable aleatoria X
con media mX
y variancia
Resp.
2.37
Defina las variables aleatorias Z
y W por
Z
= X + aY, W =
X - aY
donde
a es un número real. Determine a de manera que Z y W
sean ortogonales.
Resp.
2.38
Sea FX(w)
la función característica de X y sea Y = aX + b.
Determine la función característica de Y en términos de FX(w).
Resp.
2.39
Demuestre que el momento n-ésimo
de X puede determinarse a partir de su función característica FX(w)
por la relación
Sugerencia:
Diferencie ambos lados de la Ec. n
veces y demuestre que
2.40 Para
cualquier e
> 0, demuestre que
donde mX
= E[X] y
2.41
Cuando una FDA binomial tiene n
>> 1, ella puede ser aproximada por una FDA gaussiana con media y variancia
iguales. Suponga que una moneda no cargada se lanza 100 veces. Use la
aproximación gaussiana para hallar la probabilidad de que (a) salen caras más de 70 veces; (b) el número de caras está entre 40 y 60.
Resp.: (a) P(X > 70) =Q(4) »
3.5 ´
10-5;
(b)
2.42
La variable aleatoria X tiene una distribución de Rayleigh.
Halle la media, el segundo momento y la variancia.
2.43
Sea X = Y2, de
manera que X y Y no son independientes. No obstante, demuestre
que ellas no están correlacionadas si la fdp
de X tiene simetría par.
No hay comentarios:
Publicar un comentario