[계리모형론] 베이지안 보험료 (Bayesian Premium)

2020. 4. 2. 13:04노트/Actuary : 계리

베이지안 방법 

모수를 사전에 정하지 않고 오직 데이터에 의해서 모수를 추정하는 방법.

새로운 데이터가 발생했을 때마다 모수를 지속적으로 업데이트 시켜주는 통계적 방법.

 

 

계산방식

model : $f(x | \lambda)$

prior : $\pi( \lambda)$

joint : $f( x , \lambda) = f(x|\lambda) *\pi(\lambda)$

marginal : $f(x) = \int f(x|\lambda) * \pi(\lambda) $

likelihood : $ L(x) = \prod_{i=1}^N f(x|\lambda) $

posterior : $ \pi(\lambda|x) = {f(x|\lambda) *\pi(\lambda) \over f(x)} $

predictive : $f(x_{n+1} | x ) $ 

predictive mean :$ E(x_{n+1} | x ) = \int E( x|\lambda) \pi(\lambda |x) d\lambda$

 

 

Buhlmann Credibility 

베이지안 보험료 $E(x_{n+1} | x_1, x_2, ... , x_n)$ 을 계산하기 어려워 Buhlmann Credibility로 근사하기도 함. 

$E(x_{n+1} | x_1, x_2 , ... , x_n) \approx \bar{x} * Z + \mu * (1-Z) $

 

$Z = {EPV \over VHM } $ 

 

 

예제

asm Exam C 18th Edition Example 44A - 44B

bayesian premium.xlsx
0.01MB

전체 피보험자 포트폴리오를 good drivers 와 bad drivers로 나눌 수 잇다고 하자. 

집단의 수는 3:1 로 나뉘며, N 빈도 분포와 X 심도 분포는 각각 Poisoon 분포와 Bernoulli포를 따른다고 한다. 

 

그렇다면 Likelihood 함수의 가중치를 주는 Prior를 ${3 \over 4}$ 과 ${1 \over 4}$ 로 주고,

$f(s)=f(n)*f(x)$ 를 각각 곱하여 joint probability를 구한다. 

 

다음은 joint probability를 전체 그룹을 good drivers 와 bad driver들의 확률에 나누어 주면 Posterior probability를 구할 수 있다. 

 

Hypothetical mean은 $E(S|\lambda)$ 를 의미하며 posterior probability를 각각 곱하면 

good drivers 의 predictive mean 은 $140 * 0.672119 = 94.09666 $

bad drivers 의 predictive mean 은 $540 * 0.327881 = 177.05574 $ 이고, 

이를 합하여 Predictive Mean $271.1525$를 구할 수 있다. 

 

의미를 해석해보면 위험인수자 입장에서 피보험자가 good drivers에겐 $94.09666$원을 받으면 되지만, 

bad drivers일 경우엔 사고를 많이 칠 수 있어 $177.05574$원을 받아 Total $271.15$원을 받아야만, 

$X_4$ 시점에 누군가에게 ( 어떤 drivers이든 ) 보험금이 $0$ 혹은 $1000$혹은 $5000$이 나올 수 도있는 상황을 커버할 수 있다는 뜻이 된다. 

 

 

이전 예제는 심도분포가 비현실적이었으므로, 심도 분포가 Pareto 분포를 따를 때도 동일하게 구할 수 있다. 

이 역시 해석을 해보면, likelihood는 각 그룹의 피보험자가 발생할 수 있는 총손실의 우도함수이다. 즉 1시점, 2시점, 3시점에 발생한 손실이 일어날 확률 분포를 구한 것이다. 

여기에 prior를 곱하여 joint probability를 구해준 후, 이를 총 합으로 하는 posterior 값을 각각 구해준다. 그럼 이것이 사후분포가 되는것이고 

가설평균의 값은 각 그룹의 E(S)값을 의미한다. 

good drivers는  $E(S)=E(N)*E(X)$ 이고, 

$E(N)=0.1 , E(X)={ 1000 \over (2-1) }$ 으로 $100$이 되며, 

bad drivers는 

$E(N)=0.3 , E(X)={ 2000 \over ( 2-1) }$ 으로 $600$이 된다. 

그래서 이를 각각 sumproduct 한 값이 predictive mean 297.0511이다. 

 

과거의 경험데이터를 가지고 앞으로 발생할 값을 예측할 수 있다는 사실이 정말 신기했다. 

Bayesian을 계산하는 것은 Likelihood를 정확하게 계산할 수 있어야 한다.

 

다음은 보험손실을 buhlmann straub model을 사용하여 베이지안 분석을 해보는 논문이다. 

손해보험에서 주로 사용하는 방식으로 한번 읽어보면 익숙한 문제들을 볼 수 있다. 

 

「Bayesian Analysis of Insurance Losses Using the Buhlmann-Straub Credibility Model - Abraham J. van der Merwe , Kobus N. Bekker 」

https://digitalcommons.unl.edu/cgi/viewcontent.cgi?article=1010&context=joap

불러오는 중입니다...

Non-parametric bayesian 방식으로 실제 데이터분석을 진행해보려고 하는데 아.. 쉽지않다 일단 계산이 너무 복잡해가지고 ㅠ 시간 잡고 이해를 성공해서 포스팅해야겠다.