<< Chapter < Page Chapter >> Page >
Từ Xác suất
S5 ½ 0
S3 ¼
S2 1/8
S1 1/16
S4 1/16
1

Bây giờ ta gán giá trị zero cho tất cả các phần tử của một trong hai tập hợp và giá trị 1 cho tất cả các thành phần khác (đây là sự tuỳ chọn). Giả sử rằng ta chọn 0 cho tập hợp ở trên và 1 cho tập hợp ở dưới. Nếu một tập hợp chỉ chứa một mẫu tin, tiến trình xử lý cho tập hợp đó kết thúc. Vì thế từ mã hoá được dùng để gửi s5 đi là 0 và ta không cần xem lại tiến trình đó nữa. Ta tập trung vào tập hợp khác và ;ăpklại tiến trình chia nhỏ. Sau một lần chia nhỏ hơn ta có:

Từ Xác suất Từ mã
S3 ½ 10
S2 1/8
S1 1/16
S4 1/16
11

H

Chú ý rằng xác suất cả phần trên đường phân cách và phần dưới đường ấy đều là ¼. Ta đã cộng bit thứ hai cho các từ mã (cộng 0 cho từ mã ở trên đường phân cách và giá trị 1 cho ở dưới đường ấy). Bởi vì chỉ có một mẫu tin ở trên đường phân cách nên ta kết thúc và mã của s3 là 10. Tiếp tục chia nhỏ với tập hợp ở dưới đường phân cách ta có:

Từ Xác suất Từ mã
S2 1/8 110
S1 1/16
S4 1/16
111

Cuối cùng ta chia nhỏ tập hợp ở phần dưới đường phân cách ra:

Từ Xác suất Từ mã
S1 1/16 1110
S4 1/16 1111

Kết quả của từ mã là:

S1 ->1110

S2 ->110

S3 ->10

S4 ->1111

S5 ->0

Quan sát kết quả trên ta thấy hoàn toàn giống với kết quả khi dùng với mã Huffman.

Ta đã minh hoạ hai kỹ thuật để rút ngắn tập hợp các bản tin thành mã nhị phân hiệu quả nhất. Ta giả sử rằng các bản tin đã được cho và chúng không tổ hợp thành mã được. Nếu các bản tin tổ hợp được, sẽ hiệu quả hơn nhiều. Ta minh hoạ điều này bằng một ví dụ với hai bản tin. Giả sử rằng bản tin này có xác suất lần lược là:

S1 ->0.9

S2 ->0.1

Thì Entropy được tính là:

H= -0.9 log 0.9-0.1 log 0.1 = 0.47 bit

Vì thế ta hy vọng sẽ đạt được một mã có chiều dài gần với giá trị này. Tuy nhiên ta sử dụng hoặc là kỹ thuật Huffman hoặc là mã Shannon-Fano sẽ cho kết quảlà gán giá trị 0 vào một trong các từ mã và giá trị 1 cho từ mã khác. Chiều dài trung bình thường là một bit trên một bản tin. Điều này, nhiều hơn hai lần Entropy.

Giả sử rằng ta tổ hợp các bản tin thành những cặp. Sau đó ta có 4 tập hợp của hai bản tin. Điều này không phụ thuộc vào các bản tin. Các tập hợp có thể và xác suất kết quả là:

S1S10.81

S1S20.09

S2S10.09

S2S20.01

Nếu sử dụng phương pháp Shannon-Fano ta gán những từ mã như sau:

S1S­10.810

S1S20.0910

S2S10.09110

S2S2 0.01111

Chiều dài từ trung bình thường được xác định như sau:

= 1 x 0.81 + 2 x 0.09 + 3 x 0.10 = 1.29 bits

Vì mỗi bản tin được tổ hợp sẽ thể hiện hai trong số những bản tin gốc, ta chia số này cho hai, tìm ra được 0.645 bit được dùng để gửi một trong số những bản tin gốc.

Bây giờ giả sử rằng ta kết hợp 3 bản tin ở cùng một thời điểm để có được những xác suất bản tin và từ mã như sau:

S1S1S10.7290

S1S1S20.081100

S1S2S10.081101

S1S2S20.00911100

S2S1S10.081110

S2S1S20.00911101

S2S2S10.00911110

S2S2S20.00111111

Chiều dài trung bình của các mã là 1.598 bits. Vì thế chiều dài trung bình cho bản tin gốc là:

Chú ý rằng ta càng kết hợp nhiều bản tin, chiều dài trung bình sẽ tiến gần đến Entropy. Chiều dài trung bình này sẽ bằng với Entropy nếu các xác suất là nghịch đảo bội của 2. Khi càng nhiều các bản tin được kết hợp, các xác suất càng tiến đến gần nhau.

Get Jobilize Job Search Mobile App in your pocket Now!

Get it on Google Play Download on the App Store Now




Source:  OpenStax, Cơ sở viễn thông. OpenStax CNX. Jul 29, 2009 Download for free at http://cnx.org/content/col10755/1.1
Google Play and the Google Play logo are trademarks of Google Inc.

Notification Switch

Would you like to follow the 'Cơ sở viễn thông' conversation and receive update notifications?

Ask