엔트로피

정의
엔트로피(Entropy)는 열역학 및 통계역학에서 시스템의 무질서도 또는 미시적 상태의 확률 분포를 나타내는 물리량이다. 정보 이론에서는 정보의 불확실성 또는 평균 정보량을 측정하는 척도로 사용된다.

개요
엔트로피는 고립계의 자발적 변화 방향을 결정짓는 중요한 개념이다. 열역학 제2법칙에 따르면, 고립계에서의 엔트로피는 항상 증가하거나 일정하게 유지되며 줄어들지 않는다. 이는 자연계의 과정이 에너지가 고르게 분포되는 방향, 즉 더 무질서한 상태로 나아간다는 것을 의미한다.

엔트로피는 물리학 외에도 정보 이론, 통계학, 생물학, 경제학 등 다양한 분야에서 응용된다. 특히 정보 이론에서 클로드 섀넌(Claude Shannon)은 '정보 엔트로피'를 도입하여 메시지의 예측 불가능성 또는 새로운 정보의 양을 수량화하였다.

어원/유래
'엔트로피'라는 용어는 독일의 물리학자 루돌프 클라우지우스(Rudolf Clausius)가 1865년에 처음 사용하였다. 그는 그리스어 'en-'(안에)과 'tropē'(변화, 전환)의 조합으로 이 용어를 만들었다. 이는 열의 흐름과 에너지 전환의 내적 성격을 나타내기 위한 의도에서 비롯되었다. 클라우지우스는 엔트로피를 "변환의 양"으로 설명하며, 열역학적 과정에서 에너지의 전환 방식을 기술하는 핵심 개념으로 제시하였다.

특징

  • 엔트로피는 상태 함수로, 시스템의 초기 상태와 최종 상태에만 의존하며 경로에 무관하다.
  • 단위는 SI 기준으로 줄(J)을 켈빈(K)으로 나눈 값(J/K)으로 나타낸다.
  • 고립계에서 엔트로피 증가는 비가역성과 관련이 있으며, 시간의 방향성(시간의 화살)과도 연결된다.
  • 미시적 관점에서, 엔트로피는 시스템이 가질 수 있는 미시적 상태 수의 로그에 비례하며, 볼츠만(Boltzmann)의 공식 S = k log W로 표현된다. 여기서 S는 엔트로피, k는 볼츠만 상수, W는 미시상태의 수이다.
  • 정보 이론에서 엔트로피는 확률 변수의 값이 얼마나 예측 불가능한지를 나타내며, 확률 분포에 따라 계산된다.

관련 항목

  • 열역학 제2법칙
  • 볼츠만 엔트로피
  • 섀넌 엔트로피
  • 고립계
  • 미시적 상태
  • 정보 이론
  • 비가역 과정
  • 에너지 분산
둘러보기

더 찾아볼 만한 주제