제어를잘하자! [1335186] · MS 2024 (수정됨) · 쪽지

2024-11-24 21:00:48
조회수 658

[정보글] 머리식힐사람 들어오세요. 열심히 썼습니다..ㅎ

게시글 주소: https://test.orbi.kr/00070125910

요즘 다들 선택과목을 미적분으로 한다 들었는데, 인공지능(특히 강화학습 분야)에서는 확률론 분야의 중요성이 이전에도 그렇고 점점 중요시되고 있습니다.

놀랍지는 않겠지만 확률은 미적분은 생각보다 밀접하게 연관되어 있습니다. (사실 엄밀하게 말하자면 미적분은 실해석 분야의 응용버전인데, 실해석에서 정의하는 측도공간에서 전체 공간의 측도 크기가 1짜리인 경우만 떼어놓은 것이 확률론 분야이기 때문에 사실상 확률론 연구는 해석학 범주로 분류됩니다) 

여담으로, 실해석에서 정의하는 공간들 중 sigma-finite measurable space라는 것이 있는데, 이 공간에서는


1. fubini theorem, tonelli theorem과 같은 예쁜 정리들이 잘 성립함

2. Radon Nykodym theorem에 의해 absolutely continuous한 함수들에 한정하여 probability density function이 잘 정의됨


와 같은 좋은 성질들이 있습니다. 1번의 겅우 말이 어렵게 쓰여있지만, '다중적분에서 적분의 순서를 바꿀 수 있다.' 정도로 이해하시면 되고, 2번의 경우 Radon Nykodym theorem은 일반화된 미적분학 기본정리라고 보시면 됩니다. 


아무쪼록, 확률론이 중요하다는 말을 남기면서 같이 문제 하나를 풀어보고자 합니다. 출처는 2016 가톨릭대 모의논술입니다. 제가 고2때였나 저 문제를 처음 접했는데 신선한 충격이었습니다. 당시에는 저런 문제를 누가 만들었을까 싶었는데, 방 정리를 하던 도중 우연히 저 문제를 발견해서 한 번 풀어보니 재밌어서 같이 공유해보고자 합니다. 



일단 문제는 다음과 같습니다. 요즘도 정규분표를 배우는지는 잘 모르겠는데, 대 인공지능 시대에 normal distribution을 모르는건 시대에 뒤쳐지는 사람이라고 전 생각합니다:) (농담이고 공학분야에 종사하게 된다면 대부분 data analysis를 다룰 때 white noise 등을 마주하게 될 거라서 결국 공부하게 될 분야이기는 합니다)


제시문 (ㄴ)과 (ㄷ)을 한번 음미해보겠습니다. 아실 분들을 다들 아시겠지만 (ㄴ)과 (ㄷ)은 그 유명한 central limit theorem을 소개하는 부분입니다. Central limit theorem은 다음과 같이 서술됩니다.



영어로 되어 있어 간단하게 해설을 하자면, i.i.d는 독립, 항등 분포라는 소리로 확률변수 이 각각 


1. 항등적으로 분포: 임의의 실수 에 대해서 의 값이 에 무관하게 동등하다)

2. 독립: 임의의 실수 에 대해 이하 관계식이 성립한다.


입니다. 이 때, 이 무한대로 갈 때 확률변수 의 분포가 대략적으로 정규분포 랑 비슷해짐을 말해주는 것이 바로 CLT 입니다. 이를 조금 더 구체적으로 설명해보겠습니다. 위 CLT 서술은 아래와 같은 식을 서술하고 있습니다. 



다만, 저 이 별로 안예쁘기도 하고 설명하기도 힘들기도 해서 보통 고등학교나 일반통계학에서는 다음과 같은 꼴로 CLT를 소개합니다. 



아실 분들은 아시겠지만 확률분포에 상수를 곱하면 그 상수의 제곱만큼의 상수가 분산에 곱해지는 점, 그리고 상수를 더하면 똑같은 상수가 평균에 더해진다는 성질로부터 만들어진 등식입니다. 이것이 바로 고등학교에서 소개하는 CLT, 일명 표본평균의 분포에가 표본의 크기가 커짐에 따라 정규분포를 따른다의 의미입니다. 


다만, 비슷해진다는 의미가 위에서는 converges in distributon (또는 weakly converge)한다고 적혀있는데, 이건 측도론 지식이 있어야 이해할 수 있으므로 지금 시점에서는 위와 같이 이해하면 좋을 거 같습니다.


여기서 다시 제시문 (다)로 돌아가보겠습니다. 제시문 (다)에서는 신뢰구간의 이야기를 하고 있는데, 잠시 을 음미해보도록 하죠, 이 커짐에 따라 와 거의 유사해진다는 점을 우리는 알고 있습니다. 즉, 위에서 말하는 신뢰구간의 정의는 다음과 같이 서술할 수 있습니다: 


어떤 양수 에 대해서 구간  의 신뢰도는 다음과 같이 정의된다.



처음 보면 이 정의가 정말 (다)에서 정의한 신뢰도의 정의와 동일한지 아리까리할 수 있는데, 조금만 생각해보면 동일하다는 점을 쉽게 파악할 수 있습니다. 그리고 우리는 연속확률변수 z의 probability density function을 잘 알고 있기 때문에 (제시문 (가)에 주어져 있죠) 이로부터 신뢰도를 직접적으로 계산할 수 있는 식을 유도해볼 수 있습니다.



이제 드디어 배경지식 설명이 끝난 거 같으니 본격적으로 문제를 풀어보도록 합시다. 문제 1번을 살펴보도록 하죠.



신뢰범위 지름 구하기는 그냥 제시문 (ㅁ) 읽고 풀면 되니깐 잠시 제껴두고 저희는 제시문 (ㅂ)을 보도록 하겠습니다.




이제 저희는 무엇을 해야 할 지가 명확해졌습니다. 먼저 표본 전체를 통해 구한 신뢰도 짜리 구간 을 구해보겠습니다. 표본의 크기가 이므로 우리가 구해야 할 는 다음과 같은 관계식을 만족합니다. 



여기서 우리가 구할 를 제시문 (ㅇ) 나온 notation들을 통해 서술해야 합니다. 그러면 더 쉬워지는데, 정규화 과정을 통해 일단 위 등식을 약간 고쳐볼 것입니다.



이제 그냥 (ㅇ) notation을 그대로 사용해주면 됩니다. 



이제 조금 더(?) 어려워보이는 두 번째 구간을 를 구해보겠습니다. 사실 이 신뢰구간을 구하는 방식을 간파하는 것이 이 문제의 핵심인 거 같은데요.. 사실 그렇게 어렵지는 않습니다. (ㄹ)에서 두 표본으로부터 나온 신뢰구간의 의 길이는 동일하다고 주어져 있으며(사실 동일하지 않아도 풀 수 있는 문제인데 아마 계산 상 이슈로 동일하다고 놓고 풀라는 거 같습니다) 를 포함만 하지 않으면 됩니다. 이는 다음과 같은 바를 의미합니다: [표본1]로부터 얻어진 표본확률변수를 , [표본2]로부터 얻어진 표본확률변수를 라고 할 때 이하와 같은 관계가 성립한다. 



여기서 표본은 독립추출되므로 (위에서 가 i.i.d라고 했죠?) 위 등식은 다음과 같이 정리됩니다. 



이제 남은 건 계산입니다. ,를 따르므로 제시문 (ㅇ) notation을 이용하면 다음과 같이 정리됩니다. 먼저 정규화를 시켜야겠죠?



그 다음에, 마찬가지로 (ㅇ)를 사용해서 나타내보면, 



이는 곧 이하를 의미합니다.



이로부터 를 구하면 이하와 같습니다. 



이제 신뢰범위의 지름을 구해봅시다. 



이 정의를 이용하면 지름의 길이를 구할 수 있다. 자세한 설명은 생략하고 바로 지름의 값을 적어보겠다. 




이렇게 해서 논제 1번이 풀렸다. 이 상황에서 제시문 (ㅅ)을 읽어보자. 



이제야 우리는 제시문 (ㅅ)에서 의 지름은 크기 에 따라 불변한데 의 지름은 표본 추출에 따라 크기가 달라짐을 알 수 있다. () 부분 때문에... 그래서  중 뭐가 더 좋은지는 지름의 크기로는 판별하기 힘들다는게 (ㅅ) 제시문의 요지이다. 이제 우리는 두 신뢰범위 중 평균 지름이 더 작은 것을 더 나은 신뢰범위라고 판단한다고 제시문에 적혀있다. 즉, 우리는  





이 녀석의 평균을 구해야 한다는 의미이다.


이 문제가 정말 요물인데, 잔말말고 한 번 풀어보도록 합시다. 의 지름은 항상 일정하므로 평균을 구해도 일정할 것이다. 의 지름은 위에서 설명했듯이 시그마 항 때문에 변동이 생기는데 우리는 곧 






이 녀석의 평균을 구해야 한다. 얼핏보면 굉장히 어려워 보이는 문제인데, 우리에게는 CLT를 엄밀하게 사용하지 않고 바로 표본의 합이 얼추 정규분포를 따른다고 퉁 칠수 있는 무기가 있다. 로 정의할 때 제시문 (가)에서의 조건을 활용하면 임은 자명하게 알 수 있다. 또한, 위 식은 다음과 같이 정리된다.




는 y축 대칭이므로 빼는 것은 곧 더하는 것과 동일하게 취급할 수 있다. 이는 곧 위 평균을 구하는 것이 다름이 아니라 이하 값을 구하는 것과 동일함을 시사한다. 



이거 구하는건 식은죽 먹기이다. 다들 미적분 할 줄 알거니깐 제시문 (ㅈ)에 나온 대로 계산을 하면 된다. 



이제 문제를 다시 보면,


1. 신뢰도 99%, 즉 일 때 두 신뢰구간의 평균지름의 크기를 비교하고, 

2. 신뢰도 64% 이하, 즉 일 때 두 신뢰구간의 평균지름의 크기를 비교해보시오.


로 정리할 수 있다. 


의 평균지름 크기는 이하와 같다.




1. 이므로 이다. 그리고, 이므로 이다. 이제, 두 값을 비교해보자.




즉, 이다. 즉, 이 더 낫다.


2. 소신발언하면, 위 정보로는 알 수 없고, 컴퓨터로 계산해야 할 거 같습니다. 다만, 신뢰도가 50% 이하가 되면 무조건 이 더 나은건 증명할 수 있습니다.이므로 이다. 그리고,  이므로 이하 수식이 만족한다. 


 


즉, 이다. 즉, 이 더 낫다.




길고 긴 문제 풀이가 끝났습니다. 저도 제 논문 발표자료 너무 만들기 싫어서 타이핑 치다가 시간을 날렸네요ㅎ

아무쪼록, 이런 문제는 절대 나올 일이 없어서 그냥 재미로만 보세요. 아마 욕심이 과하신 확률 전공 교수님이 낸 문제가 아닐까 싶습니다.

0 XDK (+0)

  1. 유익한 글을 읽었다면 작성자에게 XDK를 선물하세요.