Perché i metodi Monte Carlo sono importanti nel panorama assicurativo

In questo articolo analizzeremo il ruolo che i metodi Monte Carlo hanno via via assunto nel mercato assicurativo. Partendo da una veloce panoramica dei principali cambiamenti che sta affrontando il settore negli ultimi anni, vedremo come i metodi di simulazione stocastica Monte Carlo siano diventati sempre più decisivi nella determinazione del pricing e delle valutazioni dei prodotti assicurativi.

La complessità dell’attuale panorama assicurativo e lo sviluppo di nuovi metodi e modelli

Dall’inizio degli anni duemila, il mercato assicurativo vive una grande trasformazione. In particolare, incentivati da nuove direttive (prima Solvency I e poi Solvency II), iniziano a farsi strada nuovi metodi e modelli di pricing per la valutazione dei portafogli composti da passività. L’intento è da un lato quello di rendere il mercato assicurativo omogeneo e confrontabile, dall’altro di comprendere meglio i rischi dovuti alla crescente complessità nella valutazione dei prodotti assicurativi. Queste valutazioni sono calcolate in base agli scenari economici: proiezioni di variabili economiche e finanziarie nel lungo periodo, rappresentando di fatto l’evoluzione dei fattori di rischio ai quali l’assicuratore deve far fronte.

Nel processo di valutazione dei prodotti assicurativi vengono utilizzati scenari economici “risk-neutral” cioè basati su probabilità neutrali al rischio, mentre quando bisogna utilizzarli per definire la rischiosità di un investimento si utilizzano scenari basati su probabilità “real-world”.

In questa sede, il riferimento principale è quello della valutazione di prodotti assicurativi di lungo periodo, relativi al comparto vita, in cui sono previsti componenti di natura opzionale e un tasso minimo garantito. Quest’ultimo inteso come garanzia di un tasso di interesse minimo strumentale alla rivalutazione (ad esempio) della rata di cui l’assicurato è il percettore. Questo tasso è collegato al rendimento di una gestione separata, cioè un fondo finanziario interno gestito dall’assicuratore, in cui confluiscono le somme in entrata sotto forma di premio, riconoscendo così il diritto all’assicurato di partecipare in parte al rendimento del fondo. Si devono così gestire in maniera integrata i rischi tecnici (es. dynamic lapses) e quelli finanziari (es. struttura a termine dei tassi di interesse).

In particolare, la Direttiva Solvency II prevede che la valutazione debba avvenire considerando sia la misura di probabilità neutrale al rischio che la “market-consistency”. Infatti, l’utilizzo della misura di probabilità risk-neutral (quindi il market price of risk uguale a zero), presa in prestito dal mondo finanziario, richiede che siano soddisfatte le assunzioni di efficienza del mercato, in mancanza delle quali la legge del prezzo unico non può essere rispettata, portando alla conclusione che coesistano infinite possibili misure di probabilità neutrali al rischio concorrenti. La market-consistency è quindi un ulteriore elemento che restringe il campo aiutando a definire una oggettiva probabilità risk-neutral. La consistenza di mercato è definita come :

i) il valore di mercato al quale gli asset o le liabilities sono scambiati al momento della valutazione

ii) una ragionevole “best estimate” del valore di mercato, se gli asset o le liabilities fossero stati scambiati in un possibile mercato di riferimento.

Il punto i) si sfrutta quando si hanno prodotti liquidi, mentre il punto ii) prodotti illiquidi (come quelli delle passività assicurative).

Per ottemperare alla market-consistency sono utilizzati due strumenti:

  • La struttura a termine dei tassi di interesse risk-free rilevante del mercato, basata sugli asset più liquidi (es. quella fornita da EIOPA)

  • La calibrazione dei parametri del modello stocastico dell’evoluzione del tasso di interesse (es. G2++, LMM+ …), tramite l’utilizzo di superfici di volatilità implicita di mercato alla data di valutazione (es. swaptions implied volatility surface).  

In sintesi, la curva risk-free e la superficie di volatilità implicita fanno sì che il modello stocastico della evoluzione del tasso di interesse derivi da dati di mercato e ne sia coerente nella sua dinamica. Se da un lato si utilizzano modelli stocastici per definire l’evoluzione in un framework aleatorio del tasso di interesse (e non solo), dall’altro alcuni prodotti assicurativi, ad esempio di ramo I, sono abbastanza complessi da non poter essere valutati semplicemente con soluzioni “closed-form” come Black-Scholes o lattice based. Si devono usare metodi simulativi delle traiettorie dei processi stocastici, così da poter essere in grado di considerare i rischi sottostanti e governare la pluridimensionalità che caratterizza la valutazione stocastica di tali prodotti.

Vengono così utilizzati metodi Monte Carlo.

Applicazione dei metodi Monte Carlo ai prodotti assicurativi ramo vita

Si consideri un prodotto assicurativo vita in cui vi sia la possibilità implicita di esercitare una opzione, ad esempio, come sopra, uno in cui sia previsto un tasso minimo garantito. In linea con il principio di consistenza di mercato, tali prodotti possono essere valutati come se fossero scambiati sul mercato in qualità di derivati con simili caratteristiche. Infatti il payoff ricorda quello del cap, dove R è il tasso garantito ed L il tasso prevalente di mercato, per cui l’assicuratore dovrà pagare:

R + (L – R) = max(L, R)

La mancanza di un mercato liquido del sottostante, la complessità derivante dalla presenza di embedded options e la multidimensionalità propria degli scenari economici, possono quindi essere vantaggiosamente trattati tramite metodi Monte Carlo.

Si tenga anche conto che in modelli senza possibilità di arbitraggio, il prezzo di un derivato può essere espresso come valore atteso scontato al tasso risk-free, facendo delle tecniche Monte Carlo perfetti strumenti di pricing.

In pillole generali, il funzionamento agisce in questo modo:

  • Arbitrage-free significa che le traiettorie simulate dell’asset sottostante, nel periodo di tempo considerato, potranno essere simulate secondo la dinamica risk-neutral
  • Su ogni traiettoria viene calcolato il payoff scontato al tasso risk-free
  • Il prezzo del derivato stimato è la media delle traiettorie.

Questa media è proprio il valore atteso del prezzo del derivato.

Come minimizzare gli errori di simulazione insiti nei metodi Monte Carlo

Come ogni metodologia quantitativa, anche i metodi Monte Carlo presentano alcune problematiche. Nella sua applicazione in ambito assicurativo, gli scenari economici, e quindi le traiettorie, sono spesso in quantità insufficiente per poter garantire una stima non distorta.

Infatti, l’approccio Monte Carlo stima un integrale nell’intervallo [0, 1], estraendo punti random dalla distribuzione (il processo inverso di ciò che avviene nel rapporto fra volume e probabilità in teoria della misura). Questo genera un errore di approssimazione di 1/√n, dove n è il numero di simulazioni.

Aumentando le simulazioni aumenta la precisione, ma non linearmente: aggiungere un decimo di precisione richiede 100 volte tante simulazioni. Questa convergenza è giustificata sia dalla legge dei grandi numeri, per la quale più aumentano le simulazioni, maggiore sarà la convergenza con il valore corretto, sia dal Teorema del Limite Centrale che dà le informazioni necessarie sulla entità dell’errore, assicurando che l’errore standard convergerà a 1/√n.

Il problema può essere governato tramite metodi di riduzione di varianza e generazione di numeri quasi-random. Diviene quindi cruciale la gestione di tecniche computazionali in grado di aumentare la precisione senza ricorrere necessariamente a un forte aumento di simulazioni.

Vista l’importanza e la delicatezza di questi argomenti, dedicheremo un focus a parte nei prossimi articoli.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *