Skip navigation

2.3. Một số phân phối xác suất thường gặp

2.3.1. Phân phối nhị thức

a) Phân phối Bernoulli

Định nghĩa 2.11. BNN $X$ được gọi là tuân theo luật phân phối Bernoulli, kí hiệu $X\sim \mathcal B(1;p)$, nếu $X$ có bảng phân phối xác suất như sau
$X$ 0 1
$p(x)$ p 1-p

Ta thấy mọi phép thử chỉ có hai kết cục đều có thể mô hình hóa bằng phân phối này. Chẳng hạn một phép thử chỉ có kết quả $A$ với xác suất $p$ và $\overline{A}$ với xác suất $q=1-p$. Xây dựng BNN $X$ sao cho $P(X=1)=P(A)=p$ và $P(X=0)=P(\overline{A})=q$.

Từ bảng phân phối của $X$ ta có các khẳng định sau:

(i) $E(X)=0.q+1.p=p$,

(ii) $D(X)=0^2.q+1^2.p-p^2=p.q$.

Trong lí thuyết thống kê, BNN có phân phối Bernoulli thường được dùng để đặc trưng cho các dấu hiệu nghiên cứu có tính định tính trong đó mỗi cá thể của tổng thể có dấu hiệu này hoặc không có dấu hiệu này. Chẳng hạn khi muốn nghiên cứu giới tính của khách hàng ta có thể đặc trưng cho giới tính bằng BNN với 2 giá trị bằng 1 (Nam) và bằng 0 (Nữ); trong bài toán bầu cử, nếu cử tri nào sẽ bỏ phiếu cho ứng cử viên A ta cho nhận giá trị 1, ngược lại ta cho nhận giá trị 0; để xác định tỷ lệ phế phẩm của lô hàng ta gán cho mỗi sản phẩm một trong hai giá trị 0 và 1, nếu sản phẩm là phế phẩm ta cho nhận giá trị 1 và ngược lại cho nhận giá trị 0… Đó là các BNN có phân phối Bernoulli.

b) Phân phối nhị thức

Đây là một trong các phân phối rất hay dùng trong thống kê hiện đại. Ở Chương I ta đã làm quen với lược đồ Bernoulli khi xét dãy $n$ phép thử độc lập, giống nhau, trong mỗi phép thử sự kiện A xuất hiện với xác suất $p$. Nếu gọi $X$ là số lần xuất hiện $A$ trong dãy $n$ phép thử đó, ta đã biết $X$ có các giá trị từ 0 đến $n$ với các xác suất tương ứng được xác định bởi $$\label{2.8}p(x)=P_n(x;p)=C_n^xp^x(1-p)^{n-x},\quad x=\overline{0,n}.\tag{2.8}$$

Định nghĩa 2.12. BNN $X$ được gọi là tuân theo luật phân phối nhị thức, kí hiệu $X\sim \mathcal B(n;p)$, nếu hàm xác suất của nó có dạng \eqref{2.8}. Bảng phân phối xác suất của BNN $\mathbf{X\sim \mathcal B(n;p)}$
$X$ 0 1 ... $k$ ... $n$
$p(x)$ $(1-p)^n$ $C^1_np(1-p)^{n-1}$ ... $C^k_np^k(1-p)^{n-k}$ ... $p^n$

Thực hiện $n$ phép thử Bernoulli với xác suất thành công của sự kiện $A$ trong mỗi lần thử là $p$. Với mỗi $i=\overline{1,n}$, nếu ở lần thử thứ $i$, sự kiện $A$ xuất hiện thì $X_i$ nhận giá trị 1, nếu sự kiện $A$ không xuất hiện thì $X_i$ nhận giá trị 0. Như vậy $X_i, i=\overline{1,n}$ là BNN có phân phối Bernoulli. Gọi $X$ là số lần xuất hiện sự kiện $A$ đó trong dãy $n$ phép thử Bernoulli. Khi đó $$ X=X_1+X_2+\cdots+X_n\sim\mathcal B(n;p). $$

Do các $X_i (i=\overline{1,n})$ độc lập, mặt khác $E(X_i)=p, D(X_i)=p.q, \forall i=\overline{1,n}$, $q=1-p$, nên ta có các kết quả sau:

(i) $E(X)=E\left(\sum\limits_{i=1}^nX_i\right)=\sum\limits_{i=1}^n E(X_i)=n.p$,

(ii) $D(X)=D\left(\sum\limits_{i=1}^nX_i\right)=\sum\limits_{i=1}^n D(X_i)=n.p.q$,

(iii) Từ Định lí 1.2 suy ra $\mathrm{Mod}X=m$ thỏa mãn $(n+1)p-1\leq m\leq (n+1)p$.

Ví dụ 2.19. Theo một điều tra xã hội học cho thấy tỉ lệ sinh viên học không đúng với ngành nghề mà họ yêu thích là 34%. Một lớp gồm 60 sinh viên. Gọi $X$ là số sinh viên không theo đúng ngành nghề yêu thích trong 60 sinh viên này.

a) Hãy mô tả quy luật phân phối của $X$.

b) Về trung bình thì trong 60 sinh viên sẽ có bao nhiêu sinh viên không thích ngành đang học?

c) Có bao nhiêu sinh viên không thích ngành đang học là có khả năng nhất?

2.3.2. Phân phối Poisson

Khi $n$ đủ lớn, việc tính giá trị hàm xác suất của phân phối nhị thức hết sức cồng kềnh. Nhà toán học và vật lí học người Pháp Siméon Denis Poisson (1781-1840) đã đưa ra một phân phối mang tên ông để khắc phục hạn chế này.

Ví dụ 2.20. BNN “số vụ tai nạn giao thông xảy ra trong một ngày” ở một vùng nào đó có thể được mô hình hóa như sau. Giả sử các tai nạn giao thông xảy ra một cách ngẫu nhiên, độc lập với nhau, và trung bình mỗi ngày có $\lambda$ vụ tai nạn. Ta chia 24 tiếng đồng hồ trong ngày thành $n$ khoảng thời gian ($n$ có thể là một số rất lớn) sao cho trong mỗi khoảng thời gian có nhiều nhất 1 vụ tai nạn giao thông, và khả năng xảy ra tai nạn giao thông trong mỗi khoảng thời gian bằng $\lambda/n$. Khi đó tổng số tai nạn xảy ra trong ngày có phân phối $\mathcal B\Big(n;\dfrac{\lambda}{n}\Big)$. Ta có  $$P(X=k)=C_n^k\left(\dfrac{\lambda}{n}\right)^k\left(1-\dfrac{\lambda}{n}\right)^{n-k}\to \dfrac{\lambda^k}{k!}e^{-\lambda},\quad\text{khi }n\to\infty.$$

Như vậy, khi $n\to\infty$ thì $X$ trở thành phân phối mới được gọi là phân phối Poisson. Tất nhiên phân phối Poisson không thể là phân phối xác suất chính xác của vấn đề (vì số người là hữu hạn, và số tai nạn bị chặn trên bởi số người chứ không lớn tuỳ ý được), nhưng nó là phân phối gần đúng thuận tiện cho việc tính toán.

Định nghĩa 2.13. BNN $X$ được gọi là tuân theo luật phân phối Poisson tham số $\lambda>0$, kí hiệu là $X\sim \mathcal P(\lambda)$, nếu hàm xác suất của nó có dạng $$p(x)=\dfrac{\lambda^xe^{-\lambda}}{x!},\quad\text{với }x=0,1,2,\cdots,$$ trong đó, $\lambda$ là trung bình số lần xuất hiện sự kiện ta quan tâm trong một khoảng xác định (khoảng thời gian hoặc một khoảng đơn vị tính nào đó).

Phân phối Poisson có nhiều ứng dụng trong lí thuyết phục vụ đám đông, kiểm tra chất lượng sản phẩm... Chẳng hạn số cuộc gọi điện thoại của một tổng đài trong khoảng thời gian nào đó (1 giờ, 1 ngày), số lượng khách hàng đến một địa điểm trong 1 giờ, số phương tiện giao thông qua một ngã tư, số hạt $\alpha$ phát ra từ các hạt phóng xạ trong một chu kì, số lỗi in sai trong một trang (hoặc một số trang) của một quyển sách, số transitor bị hỏng trong ngày đầu tiên sử dụng... đều là các BNN có phân phối Poisson.

Ví dụ 2.21. Một tổng đài chuyển điện trong khoảng thời gian $10^{-5}$ giây. Trong quá trình chuyển điện, số tín hiệu ồn ngẫu nhiên trong 1 giây là $10^4$. Nếu trong thời gian truyền tín hiệu, có đúng một tín hiệu ồn ngẫu nhiên thì tổng đài sẽ ngừng làm việc. Tính xác suất để cho việc truyền tính hiệu bị gián đoạn. Biết rằng số tín hiệu ồn ngẫu nhiên rơi vào trong khoảng thời gian truyền tín hiệu tuân theo luật phân phối Poisson.

Ví dụ 2.22. Người ta vận chuyển 5000 chai rượu vào kho với xác suất vỡ của mỗi chai là $4.10^{-4}$. Hỏi xác suất để khi vận chuyển có không quá 1 chai vỡ?

2.3.3. Phân phối mũ

Định nghĩa 2.14. BNN $X$ được gọi là có phân phối mũ tham số $\lambda>0$ nếu có hàm mật độ $$f(x)=\begin{cases} 0,&\text{ nếu }x\leq0,\\ \lambda e^{-\lambda x},&\text{ nếu }x>0. \end{cases}$$

Phân phối mũ thường xuất hiện trong các bài toán về thời gian sống của một loài sinh vật, tuổi thọ của thiết bị... hoặc khoảng cách giữa hai lần xuất hiện của một sự kiện $A$ nào đó mà số lần xuất hiện của $A$ tuân theo luật phân phối Poisson như: khoảng thời gian giữa 2 ca cấp cứu ở một bệnh viện, giữa 2 lần hỏng hóc của một cái máy; khoảng cách giữa 2 gen đột biến kế tiếp trên một dải ADN,...

Các đặc số của phân phối mũ là: $E(X)=\dfrac{1}{\lambda}$, $D(X)=\dfrac{1}{\lambda^2}$.

Ví dụ 2.23. Giả sử tuổi thọ (tính bằng năm) của một mạch điện tử trong máy vi tính là một BNN có phân phối mũ với kì vọng là 6,25. Thời gian bảo hành của mạch điện tử này là 5 năm. Hỏi có bao nhiêu phần trăm mạch điện tử bán ra phải thay thế trong thời gian bảo hành?

2.3.4. Phân phối đều

a) Phân phối đều rời rạc

Định nghĩa 2.15. BNN $X$ được gọi là tuân theo luật phân phối đều rời rạc với tham số $n$, kí hiệu là $X\sim\mathcal U(n)$, nếu $X$ có bảng phân phối xác suất
$X$ 1 2 ... $n$
$p(x)$ $\frac{1}{n}$ $\frac{1}{n}$ ... $\frac{1}{n}$

Như vậy hàm xác suất sẽ có dạng $p(i)=\dfrac{1}{n}, i=\overline{1,n}$. Người ta còn mở rộng khái niệm phân phối đều cho BNN $X$ nhận giá trị trên một tập hữu hạn bất kì có $n$ phần tử $\{x_1,x_2,\cdots,x_n\}$, khi đó $p(x_i)=\dfrac{1}{n}, i=\overline{1,n}$.

Các tham số đặc trưng của phân phối đều rời rạc là: $$E(X)=\dfrac{n+1}{2}\quad\text{và}\quad D(X)=\dfrac{n^2-1}{12}.$$

b) Phân phối đều liên tục

Định nghĩa 2.16. BNN $X$ được gọi là tuân theo luật phân phối đều liên tục trên $[a;b]$, kí hiệu là $X\sim\mathcal U([a;b])$, nếu $X$ có hàm mật độ xác suất $$f(x)=\begin{cases}\dfrac{1}{b-a},&\text{ nếu }x\in[a;b],\\ 0,&\text{ nếu }x\notin[a;b].\end{cases}$$

Nếu biết rằng BNN $X$ nhận giá trị nào đó trong khoảng $(a;b)$ mà không biết thêm thông tin gì khác về $X$ thì có thể xem mỗi giá trị có thể của $X$ trong $(a; b)$ là đồng khả năng. Nói cách khác, $X$ có phân phối đều trên $(a; b)$.

Các đặc số của phân phối đều liên tục là: $E(X)=\dfrac{a+b}{2}$, $D(X)=\dfrac{(b-a)^2}{12}$, $\mathrm{Mod}X=m,\forall m\in (a;b)$, $\mathrm{Med}X=\dfrac{a+b}{2}$.

Ví dụ 2.24. Lịch chạy xe buýt tại một trạm xe buýt được bố trí như sau: chuyến đầu tiên trong ngày sẽ khởi hành từ trạm này lúc 7h00, cứ sau mỗi 15 phút sẽ có một xe khác đến trạm. Giả sử một hành khách đến trạm vào khoảng thời gian từ 7h00 đến 7h30. Tìm xác suất để hành khách này phải chờ

a) Ít hơn 5 phút.

b) Ít nhất 12 phút.

2.3.5. Phân phối chuẩn

Phân phối chuẩn là phân phối thường gặp trong tự nhiên cũng như trong kĩ thuật, nó đóng vai trò rất quan trọng trong lí thuyết xác suất cũng như các ứng dụng của phân phối này trong xử lí số liệu. Phân phối chuẩn còn có tên gọi là phân phối Gauss.

a) Phân phối chuẩn và phân phối chuẩn tắc

Định nghĩa 2.17. BNN $X$ được gọi là tuân theo luật phân phối chuẩn, kí hiệu là $X\sim \mathcal N(\mu,\sigma^2)$, nếu hàm mật độ của nó có dạng $$f(x)=\dfrac{1}{\sigma\sqrt{2\pi}}\exp\left(-\dfrac{(x-\mu)^2}{2\sigma^2}\right).$$

Đồ thị của hàm mật độ của phân phối chuẩn có hình cái chuông, và bởi vậy phân phối này còn được gọi là phân phối hình chuông. Trung điểm của cái chuông này chính là điểm $x=\mu$, và độ cao của chuông chính bằng $\dfrac{1}{\sigma\sqrt{2\pi}}$. Nếu $\sigma$ càng nhỏ thì chuông càng cao và càng “hẹp”, ngược lại $\sigma$ càng lớn thì chuông càng thấp và càng rộng ra (xem hình bên).

Hình bên cho thấy hầu hết xác suất của một phân phối chuẩn nằm trong đoạn $[\mu-3\sigma,\mu+3\sigma]$. Cụ thể, nếu $X\sim\mathcal N(\mu,\sigma^2)$, thì với xác suất 99,7% ta có thể tin rằng giá trị của $X$ nằm trong $[\mu-3\sigma,\mu+3\sigma]$.

Quy tắc $2\sigma$, $3\sigma$

Phân phối chuẩn là một trong những phân phối xác suất quan trọng nhất, vì nhiều phân phối xác suất gặp trong thực tế có dáng điệu khá giống phân phối chuẩn, ví dụ như phân phối của chiều cao của đàn ông, phân phối của chỉ số IQ (chỉ số trí tuệ), phân phối của giá chứng khoán trong tương lai... Định lí giới hạn trung tâm mà chúng ta đề cập đến ở phần c) sẽ cho chúng ta cơ sở lí thuyết để hiểu tại sao có nhiều phân phối xác suất trong thực tế trông giống phân phối chuẩn.

Các tham số đặc trưng của phân phối chuẩn gồm: $$E(X)=\mu,\,D(X)=\sigma^2 \text{ và }\mathrm{Mod}X=\mathrm{Med}X=\mu.$$

Ví dụ 2.25. Độ dài một chi tiết máy giả sử tuân theo luật phân phối chuẩn với giá trị trung bình 20cm và độ lệch chuẩn là 0,5cm. Hãy tính xác suất khi chọn ngẫu nhiên ra một chi tiết có độ dài:

a) lớn hơn 20cm,

b) bé hơn 19,5cm,

c) lớn hơn 21,5cm.

Định nghĩa 2.18. Nếu BNN $X$ có phân phối chuẩn với kì vọng $\mu=0$ và phương sai $\sigma^2=1$ thì $X$ được gọi là BNN có phân phối chuẩn tắc.

Hàm mật độ của phân phối chuẩn tắc kí hiệu là $\varphi(x)$ cho bởi $$\varphi(x)=\dfrac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}},\quad \forall x\in\mathbb R.$$

Hàm phân phối của phân phối chuẩn tắc kí hiệu là $\Phi(x)$ có biểu thức $$\Phi(x)=\dfrac{1}{\sqrt{2\pi}}\int_{-\infty}^xe^{-\frac{t^2}{2}}dt,\quad\forall x\in \mathbb R.$$

Phụ lục Bảng I, II cung cấp bảng tính sẵn các giá trị của $\varphi(x)$ và $\Phi(x)$. Cần chú ý rằng một số tài liệu cung cấp bảng tính giá trị hàm $\Phi_0(x)=\dfrac{1}{\sqrt{2\pi}}\int\limits_0^xe^{-\frac{t^2}{2}}dt, x\geq 0$ (còn gọi là hàm Laplace). Hơn nữa phân phối chuẩn tắc có kì vọng $\mu=0$ nên $\Phi(0)=\dfrac{1}{\sqrt{2\pi}}\int\limits_{-\infty}^0e^{-\frac{t^2}{2}}dt=\dfrac{1}{2}$. Khi đó $$\Phi(x)=\Phi_0(x)+\dfrac{1}{\sqrt{2\pi}}\int_{-\infty}^0e^{-\frac{t^2}{2}}dt=\Phi_0(x)+0,5,\quad \forall x\geq 0.$$

Hàm phân phối của phân phối chuẩn tắc có các tính chất sau:

(i) $\Phi(-x)=1-\Phi(x)$;

(ii) Nếu $X\sim\mathcal N(0;1)$ thì với mọi $a>0$, ta có $$ P(|X|>a)=2\big(1-\Phi(a)\big)\quad\text{và}\quad P(|X|<a)=2\Phi(a)-1. $$

Định nghĩa 2.19. Giá trị $U_\alpha$ được gọi là giá trị tới hạn mức $\alpha$ của phân phối chuẩn tắc nếu $\Phi(U_\alpha)=1-\alpha$.

Từ định nghĩa trên, nếu $X\sim\mathcal N(0,1)$ và với mọi $\alpha\in(0;1)$ thì $$\label{ppct} P(X>U_\alpha)=P(|X|>U_{\alpha/2})=\alpha\quad\text{và}\quad P(|X|<U_{\alpha/2})=1-\alpha.\tag{2.9}$$

Có thể chứng minh được rằng: nếu $X\sim \mathcal N(\mu;\sigma^2)$ thì $\dfrac{X-\mu}{\sigma}\sim\mathcal N(0;1)$.

Do đó \begin{align*}&P(X\leq a)=P\left(\dfrac{X-\mu}{\sigma}\leq \dfrac{a-\mu}{\sigma}\right)=\Phi\left(\dfrac{a-\mu}{\sigma}\right),\\ &P(\alpha\leq X\leq \beta)=P\left(\dfrac{\alpha-\mu}{\sigma}\leq \dfrac{X-\mu}{\sigma}\leq \dfrac{\beta-\mu}{\sigma}\right)=\Phi\left(\dfrac{\beta-\mu}{\sigma}\right)-\Phi\left(\dfrac{\alpha-\mu}{\sigma}\right),\\ &P(|X-\mu|<\varepsilon)=P\left(\left|\dfrac{X-\mu}{\sigma}\right|<\dfrac{\varepsilon}{\sigma}\right)=2\Phi\left(\dfrac{\varepsilon}{\sigma}\right)-1.\end{align*}

Ví dụ 2.26. Gọi $X$ là chỉ số thông minh (IQ) của học sinh trung học cơ sở. Giả sử $X\sim\mathcal N(85;25)$.

a) Hỏi chỉ số IQ trung bình của học sinh trong lứa tuổi này là bao nhiêu?

b) Tính xác suất chọn được học sinh rất thông minh ($X\geq 90$).

c) Tính tỉ lệ học sinh trong lứa tuổi này có chỉ số IQ thuộc $(80;95)$.

d) Gọi $Y$ là số học sinh có IQ thuộc $(80;95)$ trong lớp 50 học sinh. Hãy chỉ rõ luật phân phối xác suất của $Y$.

e) Trong một lớp gồm 50 học sinh thì trung bình có bao nhiêu em rất thông minh ($X\geq 90$)? Con số trung bình tìm được có phải là số có khả năng xảy ra cao nhất hay không? Vì sao?

b) Định lí De Moivre-Laplace

Xét lược đồ Bernoulli, xác suất xuất hiện sự kiện A ở mỗi phép thử là $p$. Xác suất để A xuất hiện đúng $k$ lần trong $n$ lần thử là $P_n(k;p)$. Xác suất để A xuất hiện trong khoảng từ $k_1$ đến $k_2$ lần trong $n$ lần thử là $P_n(k_1,k_2;p)$. Theo công thức Bernoulli ta có: $$P_n(k;p)=C_n^kp^k(1-p)^{n-k}\quad\text{và}\quad P_n(k_1,k_2;p)=\sum\limits_{k=k_1}^{k_2}C_n^kp^k(1-p)^{n-k}.$$

Việc sử dụng công thức Bernoulli để tính các xác suất đòi hỏi phải thực hiện một số lượng khá lớn các phép toán nên khi $n$ đủ lớn thỏa mãn $n.p\geq 5$ với $p\leq 0,5$ hoặc $n(1-p)\geq 5$ khi $p\geq 0.5$, ta sử dụng công thức xấp xỉ được suy ra từ các định lí sau.

Định lý 2.4. (De Moivre-Laplace địa phương) Với $X\sim \mathcal B\big(n;p\big)$ và $\varphi(x)$ là hàm mật độ của phân phối chuẩn tắc $\mathcal N(0;1)$, ta có $$ \lim\limits_{n\to\infty}P_n(k;p)=\dfrac{1}{\sqrt{n.p.(1-p)}}\cdot\varphi\left(\dfrac{k-n.p}{\sqrt{n.p.(1-p)}}\right).$$

Định lý 2.5. (De Moivre-Laplace tích phân) Với $X\sim \mathcal B\big(n;p\big)$ và $\Phi(x)$ là hàm phân phối của phân phối chuẩn tắc $\mathcal N(0;1)$, ta có $$\lim\limits_{n\to\infty}P_n(k_1,k_2;p)=\Phi\left(\dfrac{k_2-n.p}{\sqrt{n.p.(1-p)}}\right)-\Phi\left(\dfrac{k_1-n.p}{\sqrt{n.p.(1-p)}}\right).$$

Ví dụ 2.27. Tại một khu nghỉ mát có $2n$ người đến nghỉ. Khách được phục vụ ăn trưa bởi hai đợt liên tiếp từ 10h30 đến 11h30 và từ 11h30 đến 12h30. Mỗi khách nghỉ có thể đến quán ăn của khu nghỉ mát vào một trong hai đợt với cùng một khả năng. Hãy tìm số chỗ ngồi tối thiểu tại quán ăn để với xác suất không nhỏ hơn 0,95 có thể tin rằng không có khách nào không được phục vụ ăn trưa.

c) Định lí giới hạn trung tâm

Giả sử $X_1,X_2,\cdots,X_n,\cdots$ là một dãy các BNN độc lập có cùng phân phối xác suất, với kì vọng bằng $\mu$ và độ lệch chuẩn bằng $\sigma$ hữu hạn. Định lí giới hạn trung tâm sẽ cho chúng ta biết về dáng điệu tiệm cận của phân phối xác suất của tổng $S_n=X_1+\cdots+X_n$ khi $n$ tiến tới vô cùng. Nhắc lại hệ quả sau đây cho các BNN $X_i$ độc lập: \begin{align*}E(S_n)&=E\left(\sum\limits_{i=1}^n X_i\right)=\sum\limits_{i=1}^n E(X_i)=n\mu,\\D(S_n)&=D\left(\sum\limits_{i=1}^n X_i\right)=\sum\limits_{i=1}^n D(X_i)=n\sigma^2.\end{align*}

Đặt $Z_n=\dfrac{S_n-n\mu}{\sigma\sqrt{n}}$, khi đó $$E(Z_n)=E\left(\dfrac{S_n-n\mu}{\sigma\sqrt{n}}\right)=\dfrac{E(S_n)-n\mu}{\sigma\sqrt{n}}=0\quad\text{và}\quad D\left(\dfrac{S_n-n\mu}{\sigma\sqrt{n}}\right)=\dfrac{D(S_n)}{n\sigma^2}=1.$$

Điều đó có nghĩa là, qua phép biến đổi tuyến tính $Z_n=\dfrac{S_n-n\mu}{\sigma\sqrt{n}}$, ta có thể đưa BNN $S_n$ về một BNN $Z_n$ có kì vọng bằng 0 và phương sai bằng 1. BNN $Z_n$ này được gọi là chuẩn hóa của $S_n$, hay còn gọi là tổng chuẩn hóa của $X_1,\cdots,X_n$. Định lí giới hạn trung tâm phát biểu rằng, bất kể phân phối ban đầu (của $X_1$) ra sao, khi $n$ đủ lớn thì phân phối của tổng chuẩn hóa $Z_n$ có thể được xấp xỉ rất tốt bằng phân phối chuẩn tắc $\mathcal N(0;1)$, và khi $n$ tiến tới vô cùng thì nó tiến tới $\mathcal N(0;1)$. Hay nói một cách chính xác hơn, ta có định lí sau đây.

Định lý 2.6.  (Giới hạn trung tâm) Giả sử $X_1,X_2,\cdots,X_n,\cdots$ là một dãy các BNN độc lập có cùng phân phối xác suất, với kì vọng bằng $\mu$ và độ lệch chuẩn bằng $\sigma$ hữu hạn. Đặt $Z_n=\dfrac{(X_1+\cdots+X_n)-n\mu}{\sigma\sqrt{n}}$, khi đó phân phối $Z_n$ xấp xỉ phân phối chuẩn tắc $\mathcal N(0;1)$ với $n$ đủ lớn, hơn nữa $\forall \alpha, \beta\in\mathbb R, \alpha<\beta$, ta có $$\lim\limits_{n\to\infty}P(\alpha\leq Z_n\leq \beta)=\Phi(\beta)-\Phi(\alpha).$$

Ý nghĩa của định lí giới hạn trung tâm là khi có nhiều nhân tố ngẫu nhiên tác động (sao cho không có nhân tố nào vượt trội lấn át các nhân tố khác) thì kết quả của chúng có dạng phân phối tiệm cận chuẩn.

Ví dụ 2.28. Một quả đậu có trọng lượng trung bình là 15g với độ lệch chuẩn là 3g. Một túi gồm 100 quả đậu cùng loại được gọi là đạt loại A nếu trọng lượng ít nhất phải đạt 1,5kg.

a) Lấy ra ngẫu nhiên một túi đậu, tìm xác suất để túi đó đạt loại A.

b) Chọn ngẫu nhiên 40 túi đậu, tìm xác suất để số túi loại A không quá 15.

Tra cứu kiến thức môn học close