Nel processo di selezione degli investimenti più adatti alle esigenze di un individuo, assume un ruolo fondamentale comprendere quali sono le attese riguardanti l’andamento futuro di tale impiego. Nel valutare questi aspetti, due fattori fondamentali sono generalmente considerati: il rendimento atteso, cioè la resa che l’investitore crede di poter ottenere dall’investimento in esame, e il rischio, cioè la misurazione dell’entità e della probabilità che i rendimenti effettivi si discostino da quelli desiderati.
Quest’ultimo aspetto è però spesso di difficile valutazione, e sono diverse le misure che è possibile adottare per verificare e quantificare il grado di rischio di un investimento. La più diffusa ed intuitiva è sicuramente la standard deviation.
Questa misura di rischio valuta la dispersione dei rendimenti rispetto alla loro media, dando una misura del possibile scostamento, positivo o negativo, dal rendimento atteso dell’investimento. La deviazione standard è una misura statistica che si basa sui dati storici dello strumento: misura quindi la volatilità dei rendimenti realizzata nel passato, nell’ipotesi che essa sia costante nel tempo.
La volatilità calcolata in questo modo ha però un importante difetto che è necessario mettere in luce: gli scostamenti dalla media sono considerati a prescindere dal fatto che essi siano positivi o negativi. Questo porta a valutare come ugualmente rischiosi asset con ampie variazioni negative e asset invece che presentano estesi scostamenti positivi.
Per risolvere questo problema, si sono nel tempo diffuse diverse misure di downside risk, o del rischio che i rendimenti siano inferiori al rendimento minimo accettabile dall’investitore. La più importante di esse è sicuramente una variante della deviazione standard, detta semi-deviazione standard, che calcola la volatilità dei rendimenti considerando esclusivamente quelli inferiori a zero.
Un’altra misura che considera esclusivamente il rischio di perdita è il Value at Risk (VaR). Il VaR, nato inizialmente in ambito bancario, rappresenta la perdita potenziale che il titolo/portafoglio verosimilmente non supererà considerato un determinato livello di confidenza. Il livello di confidenza indica la probabilità con cui i rendimenti rimarranno al di sotto del Value at Risk nell’orizzonte temporale considerato. Questo indicatore è tra i più diffusi per la misurazione del rischio degli investimenti: permette di concentrarsi sulle perdite mettendo in luce il comportamento degli asset considerati nelle situazioni di stress.
Anch’esso però non è privo di difetti. Il Value at Risk infatti considera soltanto il livello di perdita potenziale coincidente con il livello di confidenza scelto, ignorando il comportamento dei rendimenti nelle situazioni in cui la perdita eccede il VaR (e di conseguenza le perdite peggiori in assoluto). Una misura di rischio che concettualmente è l’evoluzione del VaR e che tenta di risolvere questo problema è l’Expected Shortfall, o Conditional VaR (CVaR). Questo indicatore misura la perdita che l’investitore può attendersi nel caso i rendimenti scendano al di sotto del Value at Risk.
Ci sono ovviamente molte altre misure di rischio, come ad esempio il draw down massimo, il Beta e altre, tutte aventi differenti caratteristiche e ambiti di applicazione. Rimane compito dell’analista selezionare la più adatta alle diverse esigenze e situazioni, sulla base sia della tipologia di strumento o strumenti analizzati, sia sugli obbiettivi dell’analisi e le tipologie di rischio che tramite questi indicatori si vuole misurare.
Ulteriori approfondimenti su Enciclopedia della Finanza.