포니아범.ai

  • 홈
  • 태그
  • 방명록

mutual information 1

엔트로피에서 크로스엔트로피까지 - (6) Mutual Information: 두 확률 변수 간의 상호 정보량

들어가며앞서 우리는 섀넌 엔트로피, 크로스 엔트로피, KL Divergence 를 통해 정보량, 불확실성, 그리고 확률 분포 간의 차이를 정량화하는 방법을 살펴보았습니다. 이제 정보 이론의 또 다른 핵심 개념인 상호 정보량 (Mutual Information, MI) 을 탐구하며, 두 확률 변수 사이의 상호 의존성 (mutual dependence) 또는 공유 정보량 (shared information) 을 측정하는 방법을 알아보겠습니다.Mutual Information 이란? - 변수 간의 관계성 측정일상 생활에서 우리는 종종 변수들 사이의 관계에 주목합니다. 예를 들어, "키가 클수록 몸무게가 많이 나갈 가능성이 높다" 거나, "날씨가 더울수록 아이스크림 판매량이 증가한다" 와 같은 경험적 관계를 인..

ML&DL 2025.01.30
이전
1
다음
더보기
프로필사진

포니아범.ai

머신러닝 엔지니어 포니아범. 금융, 음악 도메인에 관심이 많습니다

  • 분류 전체보기 (19)
    • 일상 (0)
    • RAG Project (11)
    • RAG Study (1)
    • Music Project (0)
    • ML&DL (6)
    • LLM (1)

Tag

LLM, rag, 크로스엔트로피, 엔트로피, entropy, QA, DEEPLEARNING, NLP, ragas, machine learning, macine learning, globalmacro, claude, crossentropy, cross entropy, Ai, finance, Anthropic, chatbot, evaluation,

최근글과 인기글

  • 최근글
  • 인기글

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바