728x90

정보 이론?

정보를 수치화하고 메세지를 효율적으로 압축하기 위한 방법으로 연구되었다.

동전의 앞면과 뒷면은 몇 비트로 표현할 수 있을까? > 0, 1 >> 1bit

맑음, 흐림, 비, 눈 => 몇 비트로 표현할 수 있을까? > 00, 01, 10, 11 >> 2bit

빈번하게 발생하는 상태에는 적은 bit로 표현하고 희소하게 발생하는 상태에는 높은 bit를 준다.

 

불확실성이 높다?  VS 불확실성이 낮다

맑음, 흐림, 비, 눈 모두 0.25의 확률일 때 / 맑음 0.95, 흐림 0.04, 비 0.008, 눈 0.002 

 

자기 정보(self-information)

분포 P의 확률로 일어나는 어떠한 사건 x에 대한 정보량 I(x)= -logP(x)

 

Entropy

불확실한 정도

평균적으로 몇 개의 질문을 해야 정보를 확인할 수 있는지.

Cross Entropy

확률 분포 P와 확률 분포 Q의 다름의 정도를 측정

 

크로스 엔트로피(Cross entropy)는 정보 이론에서 사용되는 개념 중 하나로, 두 확률 분포 간의 차이를 계산하는 방법 중 하나이다. 보통 예측 모델을 평가할 때, 모델이 예측한 확률 분포와 실제 분포 사이의 차이를 계산하여 모델의 정확도를 측정한다. 이 때 사용되는 함수 중 하나가 크로스 엔트로피 함수이다.

 

이 함수는 모델이 예측한 분포가 실제 분포와 같을 때 최소값을 가지며, 모델의 예측이 틀릴수록 값이 커진다.
다음과 같은 수식으로 표현한다.

H(p, q) = -Σ p(x) * log q(x)

여기서 p는 실제 분포, q는 모델이 예측한 분포를 나타낸다. 두 분포가 같을 때 크로스 엔트로피는 최소값 0을 가지며, 두 분포가 다를 때 값은 양수이다. 따라서 모델의 성능이 좋을수록 크로스 엔트로피 값은 작아지게 된다.

728x90

+ Recent posts