Skip navigation

2.4. Biến ngẫu nhiên nhiều chiều

Trong các phần trước ta đã nghiên cứu bản chất xác suất của một BNN. Nhưng trong thực tế nhiều khi phải xét đồng thời nhiều biến khác nhau có quan hệ tương hỗ và dẫn tới khái niệm véctơ ngẫu nhiên hay BNN nhiều chiều. Những ví dụ về các biến nhiều chiều rất phổ biến, chẳng hạn khi nghiên cứu một chi tiết máy, ta quan tâm đồng thời đến nhiều khía cạnh khác nhau như trọng lượng, kích thước (riêng nó đã là nhiều chiều), chất lượng, chất liệu,... Việc nghiên cứu riêng từng khía cạnh có thể cho các thông tin không đầy đủ.

Để cho đơn giản, ta nghiên cứu BNN 2 chiều $(X,Y)$, trong đó $X$ và $Y$ là các biến một chiều. Hầu hết các kết quả có thể mở rộng khá dễ dàng cho biến $n$ chiều. Nếu $X$ và $Y$ là rời rạc, ta có BNN hai chiều rời rạc; nếu chúng liên tục, ta có biến hai chiều liên tục. BNN hai chiều rời rạc được xác định bởi bảng phân phối xác suất đồng thời hoặc hàm xác suất đồng thời, còn BNN liên tục được xác định bởi hàm mật độ xác suất đồng thời. Từ hàm phân phối xác suất đồng thời có thể tính được hàm phân phối xác suất của các BNN thành phần. Cũng vậy, từ bảng phân phối xác suất đồng thời của BNN hai chiều rời rạc có thể tìm được bảng phân phối xác suất của hai BNN thành phần.

Ngoài các đặc trưng kì vọng, phương sai của hai BNN thành phần, BNN hai chiều còn được đặc trưng bởi hiệp phương sai và hệ số tương quan. Hệ số tương quan đo mức độ phụ thuộc tuyến tính của hai BNN thành phần, khi hệ số tương quan càng gần 1 thì mức độ phụ thuộc tuyến tính càng chặt. Hai BNN thành phần không tương quan thì hệ số tương quan bằng 0.

2.4.1. Luật phân phối của biến ngẫu nhiên hai chiều

Xét hai sự kiện $A=\{X<x\}$ và $B=\{Y<y\}$, hàm phân phối xác suất cho BNN hai chiều $(X,Y)$ được định nghĩa như sau.

Định nghĩa 2.20. Hàm phân phối đồng thời của hai biến $X,Y$ được cho bởi $$F(x,y)=P(A\cap B)=P(X<x; Y<y), \quad x,y\in\mathbb R.$$

Tính chất:

(i) $0\leq F(x,y)\leq 1$;

(ii) $F(x,y)$ không giảm theo từng đối số;

(iii) Với $x_1<x_2, y_1<y_2$ ta luôn có $$P(x_1\leq X<x_2; y_1\leq Y<y_2)=F(x_2,y_2)-F(x_2,y_1)-F(x_1,y_2)+F(x_1,y_1).$$

Đó chính là xác suất để điểm ngẫu nhiên $(X,Y)$ rơi vào miền chữ nhật ABCD.

(iv) $\lim\limits_{x\to-\infty}F(x,y)=\lim\limits_{y\to-\infty}F(x,y)=0$ và $\lim\limits_{x,y\to +\infty}F(x,y)=1$ với \begin{align*}F(x,+\infty)&=P(X<x; Y<+\infty)=P(X<x)=F_1(x)\\F(+\infty,y)&=P(X<+\infty; Y<y)=P(Y<y)=F_2(y)\end{align*} là các phân phối của riêng từng thành phần $X$ và $Y$ tương ứng; chúng được gọi là các phân phối biên của biến hai chiều $(X,Y)$. Đó cũng chính là các phân phối (một chiều) thông thường của $X$ và $Y$.

Định nghĩa 2.21. Hai BNN $X$ và $Y$ được gọi là độc lập nếu $$F(x,y)=F_1(x).F_2(y).$$

Nếu $X$ và $Y$ độc lập, ta có thể nghiên cứu từng biến theo các phương pháp đã có và từ các phân phối biên của $X$ và $Y$ có thể xác định được phân phối của $(X,Y)$ theo định nghĩa trên. Tuy nhiên chúng không đủ để xác định phân phối đồng thời nếu $X$ và $Y$ không độc lập.

Bảng 2.2: Bảng phân phối xác suất đồng thời

$y_1$ $\cdots$ $y_j$ $\cdots$ $y_m$ $\sum_j$
$x_1$ $p_{11}$ $\cdots$ $p_{1j}$ $\cdots$ $p_{1m}$ $p_1(x_1)$
$\vdots$ $\vdots$ $\ddots$ $\vdots$ $\ddots$ $\vdots$ $\vdots$
$x_i$ $p_{i1}$ $\cdots$ $p_{ij}$ $\cdots$ $p_{im}$ $p_1(x_i)$
$\vdots$ $\vdots$ $\ddots$ $\vdots$ $\ddots$ $\vdots$ $\vdots$
$x_n$ $p_{n1}$ $\cdots$ $p_{nj}$ $\cdots$ $p_{nm}$ $p_1(x_n)$
$\sum_i$ $p_2(y_1)$ $\cdots$ $p_2(y_j)$ $\cdots$ $p_2(y_m)$ 1

a) Phân phối xác suất của biến ngẫu nhiên hai chiều rời rạc

Bảng phân phối xác suất của BNN $(X,Y)$ rời rạc cho trong Bảng 2.2, trong đó $p_{ij}=P(X=x_i;Y=y_j)$ là xác suất đồng thời để $X$ lấy giá trị $x_i, i=\overline{1,n}$ và $Y$ lấy giá trị $y_j, j=\overline{1,m}$.

Hàm xác suất $p(x,y)$ cho bởi $p(x_i,y_j)=p_{ij}, i=\overline{1,n}, j=\overline{1,m}$ có các tính chất sau đây:

(i) $p_{ij}\geq 0, \forall i, j$;

(ii) $\sum\limits_i\sum\limits_j p_{ij}=1$.

Các phân phối biên của biến hai chiều đang xét được cho bởi: \begin{align*}P(X=x_i)=p_1(x_i)=\sum_jp_{ij},\quad i=\overline{1,n};\\ P(Y=y_j)=p_2(y_j)=\sum_ip_{ij},\quad j=\overline{1,m}.\end{align*}

Ví dụ 2.29. Cho bảng phân phối xác suất đồng thời của $X$ và $Y$. Từ đó tìm luật phân phối xác suất của các biến $X$ và $Y$, sau đó tính $F(2,3)$.

1 2 3
1 0,10 0,25 0,10
2 0,15 0,05 0,35

Từ Định nghĩa 2.21, hai biến rời rạc $X$, $Y$ được gọi là độc lập nếu với mọi cặp giá trị $x_i,y_j$, ta luôn có $$p_{ij}=p_1(x_i).p_2(y_j),\quad i=\overline{1,n}, j=\overline{1,m}.$$

Trong Ví dụ trên ta có $p_{11}=0,10\neq 0,1125=p_1(1).p_2(1)$ nên hai biến $X$ và $Y$ ở đây không độc lập.

Giả sử $Y$ lấy một giá trị cố định nào đó và ta muốn quan tâm đến luật phân phối xác suất của $X$. Khi đó, theo công thức xác suất có điều kiện thì $$\label{2.9}P(X=x_i|Y=y_j)=\dfrac{P(X=x_i;Y=y_j)}{P(Y=y_j)},\quad i=\overline{1,n}.\tag{2.10}$$

Công thức \eqref{2.9} cho phép ta định nghĩa luật phân phối có điều kiện của $X$ khi biết $Y$ nhận giá trị cụ thể. Tương tự có thể xác định luật phân phối có điều kiện của $Y$ khi biết $X$ nhận một giá trị cụ thể nào đó.

Ví dụ 2.30. Phân phối có điều kiện của $X$ biết rằng $Y=1$ trong bài toán ở Ví dụ 2.29 được xác định như sau: \begin{align*}P(X=1|Y=1)&=\dfrac{P(X=1;Y=1)}{P(Y=1)}=\dfrac{p_{11}}{p_2(1)}=\dfrac{0,10}{0,25}=0,4;\\ P(X=2|Y=1)&=\dfrac{P(X=2;Y=1)}{P(Y=1)}=\dfrac{p_{21}}{p_2(1)}=\dfrac{0,15}{0,25}=0,6.\end{align*}

Bảng phân phối xác suất có điều kiện của $X$ biết $Y=1$ là:

$X$ 1 2
$p(x|Y=1)$ 0,4 0,6

Tổng quát, nếu ta biết một điều kiện $C_Y$ nào đó của $Y$, thì phân phối có điều kiện của $X$ biết $C_Y$ sẽ là: $$ P(X=x|C_Y)=\dfrac{P(X=x; C_Y)}{P(C_Y)}. $$

b) Phân phối xác suất của biến ngẫu nhiên hai chiều liên tục

Từ Định nghĩa 2.20 về hàm phân phối đồng thời $F(x,y)$ của BNN hai chiều $(X,Y)$, ta đưa ra khái niệm hàm mật độ của $(X,Y)$ như sau:

Định nghĩa 2.22. Nếu hàm phân phối $F(x,y)$ của BNN $(X,Y)$ có dạng $$F(x,y)=\int_{-\infty}^x\int_{-\infty}^y f(u,v)dudv,$$ trong đó $f(x,y)>0$, thì hàm $f(x,y)$ được gọi là hàm mật độ của biến $(X,Y)$ (hay hàm mật độ đồng thời của $X$ và $Y$). Về mặt hình học, hàm $f(x,y)$ có thể xem như là một mặt cong trong $\mathbb R^3$ và được gọi là mặt phân phối xác suất.

Hàm mật độ của BNN hai chiều $(X,Y)$ có các tính chất quan trọng sau:

(i) $f(x,y)\geq 0, \forall x,y\in\mathbb R$;

(ii) $\int\limits_{-\infty}^{+\infty}\int\limits_{-\infty}^{+\infty} f(x,y)dxdy=1$;

(iii) $P[(X,Y)\in D]=\iint\limits_Df(x,y)dxdy$ với $D\in\mathbb R^2$. Lí thuyết tích phân kép trong Giải tích cho chúng ta thấy rằng $P[(X,Y)\in D]$ bằng thể tích của hộp chữ nhật cong giới hạn bởi phần mặt phân phối xác suất $f(x,y)$ và có đáy là hình chiếu của mặt đó trên mặt $Oxy$ (chính là miền $D$).

Các hàm mật độ biên của biến $(X,Y)$ được xác định như sau:

\begin{align*}f_1(x)&=\int_{-\infty}^{+\infty}f(x,y)dy: \text{hàm mật độ của }X;\\ f_2(y)&=\int_{-\infty}^{+\infty}f(x,y)dx: \text{hàm mật độ của }Y.\end{align*}

Tương tự với BNN hai chiều rời rạc, BNN hai chiều liên tục $(X,Y)$ được gọi là độc lập nếu $f(x,y)=f_1(x).f_2(y)$. Trong trường hợp $(X,Y)$ không độc lập ta có khái niệm hàm mật độ có điều kiện của $X$ khi biết $Y=y_0$ được xác định bởi $$\varphi(x|y_0)=\dfrac{f(x,y_0)}{f_2(y_0)}=\dfrac{f(x,y_0)}{\int\limits_{-\infty}^{+\infty}f(x,y_0)dx};$$ tương tự, $\varphi(y|x_0)$ là hàm mật độ có điều kiện của $Y$ biết $X=x_0$ và bằng $\dfrac{f(x_0,y)}{f_1(x_0)}$.

Ví dụ 2.31. Cho hàm mật độ đồng thời $f(x,y)=x+y$ với $0\leq x,y\leq 1$. Xác định các hàm mật độ có điều kiện.

Tổng quát, phân phối có điều kiện của $X$ khi biết điều kiện $y_1\leq Y\leq y_2$ là $$P(X<x|y_1\leq Y\leq y_2)=\dfrac{\int\limits_{-\infty}^xdu\int\limits_{y_1}^{y_2}f(u,v)dv}{\int\limits_{-\infty}^{+\infty}du\int\limits_{y_1}^{y_2}f(u,v)dv}.$$

2.4.2. Các tham số đặc trưng của biến ngẫu nhiên hai chiều

Nếu biết phân phối đồng thời của các BNN, ta có thể biết phân phối biên và từ đó ta có thể biết được kì vọng, phương sai của mỗi BNN đã cho. Tuy nhiên có thể tính trực tiếp các số đặc trưng này từ phân phối đồng thời. Ở đây, các công thức chỉ viết cho biến $X$, đối với biến $Y$ hoàn toàn tương tự.

Nếu $X$ là biến rời rạc thì: \begin{align*}E(X)&=\sum_ix_ip_1(x_i)=\sum_i\sum_j x_ip(x_i,y_j);\\ D(X)&=\sum_i\big[x_i-E(X)\big]^2p_1(x_i)=\sum_i\sum_jx_i^2p(x_i,y_j)-[E(X)]^2.\end{align*}

Nếu $X$ là biến liên tục thì: \begin{align*}E(X)&=\int_{-\infty}^{+\infty}xf_1(x)dx=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}xf(x,y)dxdy;\\ D(X)&=\int_{-\infty}^{+\infty}\big[x-E(X)\big]^2f_1(x)dx=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}x^2f(x,y)dxdy-[E(X)]^2.\end{align*}

Ví dụ 2.32. Cho BNN hai chiều $(X,Y)$ có hàm mật độ xác suất như sau: $$f(x,y)=\begin{cases} \dfrac{A}{\sqrt{xy}},& 0<x\leq y<1, \text{ với }A>0,\\ 0,&\text{ trường hợp khác}.\end{cases}$$

a) Xác định $A$.

b) Tính $E(X), E(Y), D(X), D(Y)$. 

a) Hiệp phương sai

Định nghĩa 2.23. Cho hai BNN $X, Y$, khi đó hiệp phương sai (covariance) của chúng là đại lượng $$\mathrm{cov}(X,Y)=E\Big[\big(X-E(X)\big)\big(Y-E(Y)\big)\Big]=E(XY)-E(X).E(Y).$$

Phụ thuộc vào các BNN $(X,Y)$ là rời rạc hay liên tục, ta có: \begin{align*}\mathrm{cov}(X,Y)&=\sum_i\sum_jx_iy_jp(x_i,y_j)-E(X).E(Y),\\\mathrm{cov}(X,Y)&=\int_{-\infty}^{+\infty}\int_{-\infty}^{+\infty}xyf(x,y)dxdy-E(X).E(Y).\end{align*}

Ý nghĩa của hiệp phương sai $\mathrm{cov}(X,Y)$ là: nó đo độ dao động “cùng hướng” hay “ngược hướng” của $X$ và $Y$. Ở đây ta hình dung là $X$ và $Y$ dao động quanh trung điểm (giá trị kì vọng) tương ứng của chúng. Nếu như $X$ và $Y$ luôn dao động cùng hướng, tức là $X$ dao động lên trên trung điểm ($X-E(X)>0$) khi $Y$ cũng dao động lên trên trung điểm, và $X$ dao động xuống dưới khi $Y$ cũng dao động xuống dưới, thì $\big(X-E(X)\big)\big(Y-E(Y )\big)$ luôn có có giá trị lớn hơn hoặc bằng 0, và $\mathrm{cov}(X,Y)$ là số dương. Ngược lại, nếu $X$ và $Y$ dao động ngược hướng, thì $\mathrm{cov}(X,Y)$ là số âm. Trong trường hợp chung, $\mathrm{cov}(X,Y)$ là số âm hay số dương tùy thuộc vào việc $X$ và $Y$ dao động ngược hướng nhiều hơn hay dao động cùng hướng nhiều hơn.

Trong trường hợp đặc biệt, khi $X=Y$, thì hiệp phương sai của một BNN với chính nó là phương sai của nó: $$\mathrm{cov}(X,X)=E\Big[\big(X-E(X)\big)^2\Big]=D(X).$$

Tính chất:

(i) Đối xứng: $\mathrm{cov}(X,Y)=\mathrm{cov}(Y,X)$;

(ii) Tuyến tính: $\mathrm{cov}(\alpha X_1+\beta X_2,Y)=\alpha.\mathrm{cov}(X_1,Y)+\beta.\mathrm{cov}(X_2,Y)$;

(iii) Bất biến xê dịch: $\mathrm{cov}(X+a,Y)=\mathrm{cov}(X,Y)$.

b) Hệ số tương quan

Nếu $X,Y$ độc lập với nhau thì $E(XY)=E(X).E(Y)$ suy ra $\mathrm{cov}(X,Y)=0$, nhưng điều ngược lại không chắc đúng. Vì vậy ta đưa vào khái niệm mới.

Định nghĩa 2.24. Nếu $\mathrm{cov}(X,Y)=0$ ta nói $X$ và $Y$ không tương quan. Ngược lại, $X$ và $Y$ gọi là tương quan với nhau.

Về mặt Vật lí, hiệp phương sai có đơn vị đo bằng bình phương đơn vị đo của $X$ và $Y$ (nếu chúng cùng đơn vị đo), vì thế người ta đưa ra một đặc trưng khác gọi là hệ số tương quan.

Định nghĩa 2.25. Nếu hai BNN $X,Y$ có độ lệch chuẩn $\sigma(X), \sigma(Y)$ khác 0, thì hệ số tương quan của chúng là đại lượng $$\rho(X,Y)=\dfrac{\mathrm{cov}(X,Y)}{\sigma(X)\sigma(Y)}.$$

Có thể chứng minh được $|\rho(X,Y)|\leq 1$. Nếu $\rho(X,Y)=1$, ta có hai biến $X,Y$ có quan hệ tuyến tính hệ số dương, tức là tồn tại $a>0$ và $b\in\mathbb R$ sao cho $X=aY+b$. Ngược lại, nếu $\rho(X,Y)=-1$ thì $X,Y$ có quan hệ tuyến tính hệ số âm.

Ví dụ 2.33. Tính $\mathrm{cov}(X,Y)$ và $\rho(X,Y)$ trong Ví dụ 2.29.

Tra cứu kiến thức môn học close