잡동사니

Mean-field theory 간단 정리

xeskin 2020. 1. 3. 16:04
반응형

Formalism이 정확하게 있는 것이 아니라 fluctuation을 없애는 분석 방법을 mean-field라고 부른다. 고전적인 사례로는 다음이 있다. 저 논문은 neural network는 다루는 것이 아니라 노드를 하나씩 확률적으로 붙여가는 complex network인데, 그러면 샘플이 다양할 수가 있다. 근데, 매 샘플마다 하나의 example을 보는게 아니라 '평균적인 하나의 네트워크'처럼 보는 것. 그걸 mean-field라고 한다. 

 

예전에 probabilistic method 수업을 들을 때 random graph에서 edge 갯수의 기댓값을 생각해서 하한을 보여서 그래프의 존재성 증명했던 것이 어렴풋이 기억나는데, 이런 sense와도 맞닿은 부분이 있는 것 같다.

 

통계역학(자유도 6N)에서 열역학(3개 정도의 변수)로 변수를 줄이는 것도 mean-field라고 부르기도 한다. (ex. 반데르발스 방정식)

 

이게 변수가 많은 경우에는 각 변수들을 통제하기가 어려우니까 적당히 approximation되는 선에서 변수를 줄이는 접근법인 것 같다. 위키에서 이야기하는 motivation도 그런 것 같고.. 관심있게 보던 논문의 후속논문에서 갑자기 mean-field theory가 갑툭튀해서 이게 뭔가하고 당황했는데 물리학과 대학원생 O가 잘 이야기해준 덕분에 뭔지는 알게 됐다.

 

https://yongjae-oh.blogspot.com

 

Yongjae Oh

Interested in Physics and Related Topics

yongjae-oh.blogspot.com

O의 블로그 링크

반응형

'잡동사니' 카테고리의 다른 글

프로그래머 역량 체크  (0) 2020.04.20
17세기 영국의 평균 결혼 연령  (0) 2020.04.13
Tool for Model Compression  (0) 2020.01.17
Deep Compression, Image Compression  (0) 2020.01.08
[스마트베타] 스마트베타란?  (0) 2019.09.26