Khoảng cách Jensen-Shannon

Từ testwiki
Bước tới điều hướng Bước tới tìm kiếm

Trong lý thuyết xác suấtthống kê, khoảng cách Jensen-Shannon là một phương pháp phổ biến để đo sự tương đồng giữa hai phân bố xác suất. Nó dựa trên khoảng cách Kullback-Leibler với một điểm khác biệt quan trọng là nó luôn có giá trị hữu hạn. Căn bậc hai của khoảng cách Jensen-Shannon là một metric.[1][2]

Định nghĩa

Đặt M+1(A) là tập hợp các phân bố xác suất trong đó A là một tập hợp cùng với một σ-đại số gồm các tập con đo được. Cụ thể hơn, ta chỉ xem xét Atập hợp hữu hạn hoặc đếm được với mọi tập con đều đo được. Khoảng cách Jensen-Shannon (JSD) M+1(A)×M+1(A)[0,) là phiên bản đối xứng và trơn của khoảng cách Kullback-Leibler D(PQ). Nó được định nghĩa như sau

JSD(PQ)=12D(PM)+12D(QM)

trong đó M=12(P+Q) Nếu A là đếm được thì có định nghĩa tổng quát hơn cho phép so sánh nhiều hơn hai phân bố, như sau:

JSD(P1,P2,,Pn)=H(i=1nπiPi)i=1nπiH(Pi)

trong đó π1,π2,,πn là trọng số của các phân bố P1,P2,,PnH(P)entropy Shannon của phân bố P. Trong trường hợp chỉ có hai phân bố mô tả ở trên,

P1=P,P2=Q,π1=π2=12. 

Giới hạn

Theo Bản mẫu:Harvtxt, khoảng cách Jensen-Shannon bị giới hạn bởi 1 khi lôgarit được tính theo cơ số 2.

0JSD(PQ)1

Liên hệ với thông tin tương hỗ

Khoảng cách Jensen-Shannon đúng bằng thông tin tương hỗ giữa biến ngẫu nhiên X phân phối theo một phân phối hỗn hợp M=P+Q2 và biến ngẫu nhiên Z trong đó Z=1 nếu X được lấy từ PZ=0 nếu X được lấy từ Q.

I(X;Z)=H(X)H(X|Z)=MlogM+12[PlogP+QlogQ]=P2logMQ2logM+12[PlogP+QlogQ]=12P(logPlogM)+12Q(logQlogM)=JSD(PQ)

Từ kết quả trên có thể suy ngay ra khoảng cách Jensen-Shannon nằm trong khoảng từ 0 đến 1 vì thông tin tương hỗ là không âm và bị chặn bởi H(Z)=1.

Các liên hệ khác

Khoảng cách Jensen-Shannon luôn lớn hơn hoặc bằng bình phương của khoảng cách Hellinger Bản mẫu:Harv.

JSD(PQ)H2(P,Q)

Ghi chú

Bản mẫu:Tham khảo

Tham khảo