Luarea deciziilor și planificarea în condiții reduse de predictibilitate

În același context al necesității acceptării aleatoriului în viața noastră, iată un alt document al cărui coautor este Nassim Nicholas Taleb:

Hai să vedem mai îndeaproape despre ce e vorba…

Acest document își propune să demonstreze predictibilitatea limitată și nivelul înalt de incertitudine în, practic, toate domeniile importante ale vieții noastre și implicațiile acestui aspect. Sintetizează imensul corp de dovezi empirice solide acumulate în ultimele câteva decenii, care demonstrează consecințele dezastruoase ale previziunilor inexacte în domenii variind de la economie și de la mediul înconjurător, la medicină. Cu toate acestea, marea problemă a oamenilor, este aceea a deciziilor și a factorilor politici care încă mai cred că este posibilă o previziune precisă și că această incertitudine poate fi evaluată în mod fiabil. Realitatea însă arată altfel, așa cum dovedește această secțiune specială. Această lucrare discută precizia și incertitudinea prognozării și diferențiază trei tipuri diferite de predicții: cele care se bazează pe modelele de prognoză, cele bazate pe relații și cele pentru care judecata umană este principalul determinant al prognozei. În plus, principalele probleme și provocări cu care se confruntă cei ce prognozează și motivele pentru care incertitudinea nu poate fi evaluată în mod fiabil sunt discutate utilizând patru seturi de date mari. Există, de asemenea, asumări ale celor unsprezece lucrări incluse în această secțiune specială, precum și unele observații finale care subliniază nevoia de a fi brutale și realiste cu privire la așteptările noastre și de a evita iluziile comune legate de prognoză.

Introducere

Viitorul necunoscut este o sursă de anxietate, dând naștere unei puternice nevoi umane de a-l prezice, pentru a elimina sau a elimina în mod ideal incertitudinea inerentă. Cererea de previzionare a creat o mulțime de „experți” care să o îndeplinească, de la prezicători și astrologi la economiști și guru de afaceri. Cu toate acestea, istoria aproape tuturor predicțiilor e tristă. Mai rău, precizia predictorilor „științifici” nu este adesea mai bună decât cea a unor simple valori de referință (de exemplu, valoarea actuală sau unele medii). În plus, baza previziunilor lor este, deopotrivă, la fel de îndoielnică precum cele ale credincioșilor și astrologilor. În domeniul economiei, cine a prezis crizele subprime și criza creditelor, Internet bubble-ul, contagiunea asiatică, crizele imobiliară și a economiile și împrumuturile, calamitatea de creditare din America Latină și celelalte dezastre majore? În afaceri, cine a „prezis” prăbușirea Lehman Brothers, Bear Stearns, AIG, Enron sau WorldCom (în SUA) și Northern Rock, Royal Bank of Scotland, Parmalat sau Royal Ahold (în Europa); sau colapsul practic al întregii economii a Islandei? În finanțare, cine a prezis decesul LTCM și a lui Amaranth, sau sutele de fonduri mutuale sau de risc ce se închid în fiecare an după ce au suferit pierderi? Și astea reprezintă doar vârful aisbergului.

În marea majoritate a situațiilor, predicțiile nu sunt niciodată exacte. După cum menționează Orrell și McSharry (vezi aici), excepția este cu sistemele mecanice în fizică și inginerie. Predictibilitatea practic a tuturor sistemelor complexe care ne afectează viața este scăzută, în timp ce incertitudinea care ne înconjoară previziunile nu poate fi evaluată în mod fiabil. Calendarele perpetue din dispozitivele de mână, inclusiv ceasurile, ne pot arăta creșterea exactă pentru soare și luna, precum și fazele lunii, până în anul 2099 și după aceea. Este impresionant faptul că astfel de dispozitive mici pot oferi prognoze foarte precise. Aceste previziuni sunt remarcabile, deoarece se referă la atât de mulți ani în viitor și este practic sigur că vor fi perfect corecte atât de mulți ani de acum înainte. Același sentiment de venerație este resimțit atunci când o navă spațială ajunge la destinația exactă după mulți ani de călătorie prin spațiu, când o rachetă atinge ținta exactă la mii de kilometri distanță sau când un pod suspendat de 2000 m poate rezista unui cutremur puternic prezis în specificațiile sale.

Fizica și ingineria au realizat succese uimitoare în prezicerea rezultatelor viitoare. Prin identificarea modelelor exacte și a relațiilor exacte, ele pot extrapola sau interpola, pentru a obține previziuni perfecte, fără erori. Aceste modele, cum ar fi orbitele obiectelor cerești, sau relații ca cele care implica gravitația, pot fi exprimate cu modele matematice exacte care pot fi apoi folosite pentru prognoza pozițiilor soarelui și a lunii în viitor, sau pentru a trimite o racheta să lovească ținta dorită la mii de kilometri distanță. Modelele utilizate nu produc erori semnificative, chiar dacă acestea sunt simple și pot fi adesea programate cu dispozitive portabile.

Predicții care implică corpuri cerești și legi ale fizicii ce au rezultate aproape perfecte, fără erori de predicție sunt excepții și nu regulă – iar erorile de prognoză nu au o consecință gravă, datorită „subțirimii” abaterilor. Luați în considerare aruncarea unei monede de 10 ori; de câte ori va apărea capul? În acest joc nu există nicio certitudine cu privire la rezultat, care poate varia de la 0 la 10. Cu toate acestea, chiar și în cazul cunoașterii științifice a probabilității, cea mai bună prognoză pentru numărul de apariții ale capului este 5, ca cel mai probabil rezultat, care este, de asemenea, media tuturor celor posibile. Este posibil să se stabilească faptul că șansa de a obține exact un număr de cinci capete este de 0,246, sau de a calcula probabilitatea corespunzătoare pentru orice alt număr.

Distribuția erorilor, atunci când o monedă este aruncată de 10 ori și prognoza de a obține 5 capete, este prezentată în Fig. 1, împreună cu rezultatele efective ale celor 10.000 de simulări. Potrivirea dintre  rezultatele teoretice și cele reale este remarcabilă, ceea ce înseamnă că incertitudinea poate fi evaluată corect atunci când se aruncă o monedă de 10 ori.

Fig. 1. Eroarea asumând obținerea a 5 capete atunci când o monedă este aruncată de 10 ori (10.000 replicări)

Jocurile de noroc, cum ar fi aruncarea monedei, aruncarea zarurilor, sau rotirea ruletei au o proprietate extrem de frumoasă: evenimentele sunt independente, în timp ce probabilitatea succesului sau a eșecului este constantă pentru toate încercările. Aceste două condiții ne permit să calculăm atât cea mai bună prognoză, cât și incertitudinea asociată diferitelor apariții. Mai mult, când n, numărul de încercări este mare, se aplică teorema limitei centrale, garantând că distribuția în jurul prognozei medii, cea mai probabilă, poate fi aproximată printr-o curbă normală, știind că valori mai mari ale lui n duc la o mai bună aproximare. Chiar și atunci când o monedă a fost aruncată de 10 ori (n  =  10), distribuția erorilor, cu o prognoză de 5, poate fi aproximată destul de bine cu o distribuție normală, așa cum se poate vedea în Fig. 1.

Cu corpurile cerești și relațiile legilor fizice putem realiza previziuni aproape perfecte. Cu jocurile de noroc, știm că nu există nici o certitudine, dar putem să stabilim cele mai adecvate previziuni și să estimăm exact incertitudinea implicată. În marea majoritate a situațiilor reale, însă, există întotdeauna îndoieli cu privire la care este prognoza „cea mai bună” și, chiar mai rău, incertitudinea în jurul unei previziuni nu poate fi evaluată din trei motive. În primul rând, în cele mai multe cazuri, erorile nu sunt independente una de cealaltă; variația lor nu este constantă, în timp ce distribuția lor nu poate garanta urmarea unei curbe normale – ceea ce înseamnă că variația însăși va fi ori greu de tratat, ori un indicator slab al erorilor potențiale, ceea ce a fost numit „aleatoriu sălbatic” de către Mandelbrot (1963). În al doilea rând, întotdeauna există șansa de a se materializa evenimente foarte puțin probabile sau total neașteptate – și acestea pot juca un rol important (Taleb, 2007). În al treilea rând, există o problemă gravă dincolo de setările artificiale, ca în cazul jocurilor: probabilitatea nu este observabilă și este destul de nesigur care este modelul probabilistic de utilizat.

În plus, trebuie să ne amintim că nu prognozăm de dragul prognozei, ci pentru un anumit scop, deci trebuie să ne dăm seama că unele erori de prognoză pot provoca daune sau oportunități ratate, în timp ce altele pot fi benigne. Pentru noi, orice analiză a previziunilor trebuie să ia în considerare dimensiunea practică: atât consecințele erorilor de prognoză, cât și fragilitatea și fiabilitatea previziunilor. În cazul fiabilității scăzute, trebuie să știm ce să facem, în funcție de potențialele pierderi și oportunități implicate.

Precizia și incertitudinea în prognoză

Această secțiune examinează fiecare dintre cele două aspecte distincte asociate prognozei: precizia predicțiilor și incertitudinea care le înconjoară. În acest fel, ea distinge trei tipuri de predicții: (a) cele care implică modele, (b) cele care folosesc relații și (c) cele bazate în primul rând pe judecata umană. Fiecare dintre aceste trei tipuri vor fi acoperite cu ajutorul informațiilor din studii empirice și trei exemple concrete, în care sunt disponibile date ample.

Precizia în cazul tiparelor de prognoză

M-Competitions au furnizat informații abundente despre acuratețea tuturor metodelor de prognoză ale seriilor de timp majore care vizează predicția modelelor. Tabelul 1 afișează precizia medie generală pentru toate orizonturile de prognoză pentru seria 4004 utilizată în competiția M-Competition (vezi mai jos) și în M3-Competition (vezi și mai jos 😉 )

Tabel 1. MAPE
 MAPE: Orizonturi prognozăÎmbunătățire
(în Medie MAPE)
% Îmbunătățire în Medie MAPE:
1618Medie MAPE
(orizonturi 1 - 18)
pe Naïv1Naïv2
pe
Naïv1
Singur
pe
Naïv2
Atenuare
pe
Singur
Box-Jenkins
pe
Atenuare
Naïv111,7%18,9%24,6%17,9%
Naïv210,2%16,9%22,1%16,0%1,9%11,6%
Atenuare exponențială unică9,3%16,1%21,1%15,0%2,9%6,4%
Eliminare netezire exponențială8,7%15,0%19,2%13,6%4,3%8,1%
Metoda Box-Jenkins pentru modelele ARIMA9,2%14,9%19,8%14,2%3,7%-2,5%
MAPE (eroare medie absolută procentuală) a diferitelor metode și îmbunătățiri procentuale

Tabelul include cinci metode. Naïve 1 este un indicator de referință simplu, ușor accesibil. Previziunile sale pentru toate versiunile până la 18 sunt ultima valoare disponibilă. Naïve 2 este aceeași cu cea Naïve 1, cu excepția faptului că prognozele sunt sezonizate corespunzător pentru fiecare orizont de prognoză. Uniformizarea exponențială unică este o metodă simplă care mediază cele mai recente valori, dând mai multă greutate celor mai recente, pentru a elimina aleatoriul. Amortizarea exponențială a netezirii este similară cu cea unică, cu excepția faptului că ea netezește mai întâi cea mai recentă tendință din date pentru a elimina aleatoriul și apoi extrapolează și atenuează, așa cum sugerează numele acesteia, ca un trend neted. Netezirea unică sa dovedit a fi foarte precisă în competițiile M- și M3, în timp ce netezirea a fost una dintre cele mai bune metode în fiecare dintre aceste competiții. În cele din urmă, metodologia Box-Jenkins cu modele ARIMA, o metodă sofisticată statistic care identifică și fixează cel mai potrivit model autoregresiv și/sau modelul mediei mobile de date, a fost mai puțin generală decât atenuarea netedă.

(re)flexii

Pentru o (oarecare) clarificare a conceptelor de Naïve 1 și Naïve 2, includ aici următorul document:

Tabelul 1 prezintă MAPE-urile acestor metode de prognoză pentru orizonturile 1, 6 și 18, precum și media globală a tuturor celor 18 orizonturi de prognoză. Erorile de prognoză încep de la aproximativ 10% pentru previziunile unei perioade anterioare și aproape dublu pentru 18 perioade viitoare. Aceste erori enorme sunt tipice pentru ceea ce se poate aștepta la predicții de serii similare celor din competițiile M- și M3 (majoritatea constând în serii economice, financiare și de afaceri). Tabelul 1 arată, de asemenea, îmbunătățirile în MAPE ale celor patru metode asupra Naïve 1, care au fost folosite ca referințe. De exemplu, Naïve 2 este cu 1,9% mai precis decât Naïve 1, o îmbunătățire relativă de 11,6%, în timp ce netezirea atenuată este cu 4,3% mai exactă decât Naïve 1, o îmbunătățire relativă de 27,2%.

Partea din dreapta a Tabelului 1 oferă informații despre sursa îmbunătățirilor în MAPE. Singura diferență dintre Naïve 1 și Naïve 2 este că acesta din urmă surprinde sezonalitatea datelor, ceea ce înseamnă că îmbunătățirea cu 11,6% (cea mai mare dintre toate) adusă de Naïve 2 se datorează prognozei sezonalității din seria 4004. O îmbunătățire suplimentară de 6,4% provine de la o netezire exponențială unică, care reprezintă media celor mai recente valori pentru a elimina zgomotul aleatoriu. Îmbunătățirea definitivă de 8,1%, în plus față de sezonalitate și aleatoriu, se datorează atenuării netezirii, ceea ce elimină aleatoriul în cea mai recentă tendință (putem numi această tendința impulsului seriei). În cele din urmă, metoda Box-Jenkins este mai puțin precisă decât atenuarea netezirii cu 0,6% sau, în termeni relativi, are o scădere cu 2,5% a preciziei globale de prognoză. Deoarece atenuarea netezirii nu poate prezice punctele de cotitură, putem presupune că nici Box-Jenkins nu poate, deoarece este mai puțin precisă decât atenuarea. În plus, atenuarea netezirii este mult mai exactă decât netezirea exponențială a lui Holt (neprezentată în Tabelul 1) – vezi și aici, care extrapolează tendința cea mai recent netezită, fără atenuare. Acest constatare arată că, în medie, tendințele nu continuă neîntrerupt și, prin urmare, nu ar trebui extrapolate. Modificările ciclice, de exemplu, inversează tendințele stabilite, cu consecința unor erori enorme, dacă astfel de tendințe sunt extrapolate presupunând că acestea vor continua neîntrerupt.

Incertitudinea cu privire la modelele de prognoză

Care este incertitudinea din MAPE afișată în Tabelul 1? În primul rând, incertitudinea crește odată cu orizontul de prognoză. În al doilea rând, o astfel de creștere este mai mare decât cea presupusă teoretic. Cu toate acestea, a fost imposibil să se stabilească repartizarea erorilor de prognoză într-un mod similar cu cel prezentat în Fig. 1 sau Tabelul 1, deoarece numărul de observații din seria de competiții M nu este suficient de mare. Din acest motiv, vom demonstra incertitudinea în prognoză prin utilizarea a patru serii lungi, permițându-ne să analizăm distribuțiile erorilor de prognoză.

Date privind precipitațiile dintre 1 ianuarie 1971 și 6 mai 2008 (n = 13.648) din Amsterdam arată că șansa de ploaie în orice zi este foarte apropiată de cea a aruncării unei monede (0,506, mai precis). Deoarece plouă mai mult în anumite perioade, decât în altele (adică evenimentele nu sunt independente), putem folosi Naïve 1 pentru a ne îmbunătăți capacitatea de prognoză. Procedând astfel, creștem probabilitatea de a prezice corect ploaia de la 0,506, presupunând că zilele ploioase sunt independente unele de altele, la 0,694. Fig. 2 arată erorile teoretice și efective de prognoză utilizând Naïve 1. Potrivirea dintre erorile teoretice și cele reale este remarcabilă, indicând faptul că putem estima incertitudinea modelului Naïve 1 cu un grad ridicat de fiabilitate atunci când folosim estimările teoretice. Se pare că, în situațiile binare de prognoză, cum ar fi ploaie sau fără ploaie, incertitudinea poate fi estimată în mod credibil.

Fig. 2. Numărul predictibil și teoretic al zilelor ploioase.

Figura 3 arată temperaturile medii zilnice din Paris pentru fiecare zi a anului, utilizând datele de la 1 ianuarie 1900 până la 31 decembrie 2007. Aceeași figură arată un model neted, iar zilele de iarnă au cele mai scăzute temperaturi și zilele de vară cele mai înalte, așa cum era de așteptat. După identificarea și estimarea modelului sezonier, cea mai bună prognoză sugerată de meteorologi, de exemplu, 1 ianuarie 2013, este media temperaturilor pentru toți cei 108 ani de date sau 3,945 ºC.

Cu toate acestea, este clar că temperatura reală pe 01.01.2013 va fi, cel mai probabil, diferită de această medie. O idee despre posibilele erori sau incertitudini în jurul acestei predicții medii poate fi dedusă din Figura 4, care arată cele 108 erori dacă vom folosi media de 3,945, pentru 1 ianuarie, ca prognoză. Aceste erori variază de la -13 la 8 grade, majoritatea fiind între 7 și 11 ºC. Totuși, problema Figurii 4 este că distribuția erorilor nu pare să aibă un comportament bun. Acest lucru se datorează faptului că nu avem suficiente date (o problemă cu cele mai multe serii de viață reală) sau faptului că distribuirea efectivă a erorilor nu este normală sau chiar simetrică. Astfel, putem spune că cea mai probabilă estimare a noastră este de 3,945 grade, dar este dificil să specificăm intervalul de incertitudine din acest exemplu cu toată convingerea.

Fig. 3. Temperaturile medii zilnice în Paris: între 1900 și 2007 (sus)
Fig. 4. Erori de la media temperaturilor zilnice (în grade Celsius) pe 1 ianuarie: 1900-2007 (jos)

Numărul de erori de prognoză crește semnificativ atunci când facem predicții pe termen scurt, cum ar fi temperatura mâine, și folosim Naïve 1 ca prognoză (meteorologii pot îmbunătăți precizia prognozei vremii față de cea dată de Naïve 1 pentru mai mult de trei zile înainte). Dacă se folosește Naïve 1, eroarea medie este zero, ceea ce înseamnă că Naïve 1 este un model neprudențial de prognoză, cu o deviație standard de 2,71 grade și o serie de erori de la -11,2 la 11 grade. Distribuția acestor erori este prezentată în Figura 5, suprapusă pe o curbă normală. În mod similar, există 175 de erori în afara limitelor mediei ±3 abateri standard, față de 69 dacă distribuția era normală. Prin urmare, putem spune că distribuția erorilor poate fi aproximată de o curbă normală? Răspunsul este complicat, chiar dacă diferențele nu sunt la fel de mari ca cele din Figura 6, descriind erorile următorului exemplu: DJIA.

Fig. 5. Temperaturile din Paris între 1900-2007: modificări zilnice (sus) și
Fig. 6. Erorile de prognoză zilnice pentru DJIA, 1900-2007 (jos)
Tab. 2. DJIA 1900-2000: Cele mai rele – cele mai bune întoarceri (returns)

Figura 6 arată aceleași informații ca și în Figura 5, cu excepția faptului că se referă la valorile DJIA când Naïve 1 este folosit ca model de prognoză. Datele(n=29,339) acoperă aceeași perioadă cu temperaturile de la Paris, de la 1 ianuarie 1900 până la 31 decembrie 2007 (există mai puține observații deoarece piața de mărfuri nu este deschisă în timpul weekend-urilor și sărbătorilor). De asemenea, distribuția efectivă a Figurii 6 nu urmează o curbă normală. Valorile medii sunt mult mai mari decât cele din Figura 5, în timp ce există mult mai multe valori în afara limitelor de ±4 abatere standard față de medie. De exemplu, există 184 de valori sub și peste deviația standard 4, în timp ce nu ar trebui să existe astfel de valori, dacă distribuția a fost într-adevăr normală.

Tabelul 2 ilustrează în continuare, cozile lungi, grase ale erorilor din Figura 6 afișând cele mai mici și cele mai mari 15 erori și numărul de deviații standard departe de medie, astfel de erori corespunzătoare (variază de la 6,4 la 21,2 abateri standard). Astfel de erori mari nu ar fi putut să apară în multe miliarde de ani dacă ar fi fost parte a unei distribuții normale. (Depărtarea de la normalitate nu este măsurată cu exactitate prin numărul de observații care depășesc 4, 5 sau 6 deviații standard (sigma), ci prin examinarea contribuției unor deviații mari la proprietățile totale. De exemplu, moneda argentiniană a înghețat timp de un deceniu în anii 1990, după care a avut un salt mare. Aplatizarea sa a fost mult mai importantă decât vremea de la Paris, deși am avut o singură abatere de peste 4 sigma. Aceasta este problema cu măsurătorile financiare care elimină efectul unui singur salt.)

Faptul că distribuția erorilor în Figura 6 este mult mai exagerată decât cea din Figura 5 se datorează capacității umane de a influența DJIA, ceea ce nu este cazul temperaturilor. O astfel de abilitate, împreună cu faptul că oamenii reacționează exagerat la știrile bune și rele, mărește probabilitatea mișcărilor mari în DJIA. Nu există altă modalitate de a explica creșterile/scăderile uriașe prezentate în Tabelul 2, deoarece nu există posibilitatea ca gradul de capitalizare a tuturor companiilor din DJIA să piardă sau să câștige astfel de sume enorme într-o singură zi prin factori reali.

O altă modalitate de a explica diferențele dintre cele două figuri este aceea că temperatura este o variabilă aleatorie fizică, supusă legilor fizice, în timp ce piețele financiare sunt variabile informative aleatoare care pot lua orice valoare fără restricție – nu există impedimente fizice la dublarea unui preț. Deși variabilele aleatorii fizice pot fi non-normale datorită ne-liniarităților și cascadelor, ele trebuie încă să respecte o anumită structură, în timp ce variabilele informative aleatorii nu au nici o constrângere tangibilă.

Fig. 7. Erorile de prognoză zilnice pentru Citigroup, 1977-2008

Non-normalitatea se agravează în cazul stocurilor individuale, așa cum a arătat experiența recentă cu privire la stocurile bancare. De exemplu, prețul Citigroup a scăzut cu 34,7% între 9 și 17 septembrie 2008, apoi a crescut cu 42,7% în cele două zile din 18 și 19 septembrie. Acestea sunt fluctuații uriașe, imposibil de explicat prin asumarea independenței și a unor erori bine comportate (valoarea medie zilnică a Citigroup este de 0,044%, iar deviația standard este 2,318%). În consecință, nu se poate evalua și incertitudinea privind viitoarele returnări ale Citigroup, deoarece distribuția are cozi lungi (vezi Figura 7), iar erorile sale sunt proporțional mai concentrate în mijloc și au valori proporțional mai extreme în comparație la cele ale DJIA prezentate în Figura 6.

Acuratețea și incertitudinea când se preconizează relații

Nu există un echivalent al competițiilor M pentru a ne furniza informații despre exactitatea prognozării post-eșantion a relațiilor. În schimb, econometricienii folosesc valoarea R^2 pentru a determina buna potrivire a relației mediei comparativ cu media (folosită ca punct de referință).

Estimarea relațiilor, ca modele, necesită o „mediere” a datelor pentru a elimina aleatoriul. Figura 9 arată înălțimile a 1.078 de părinți și fii, precum și media unei astfel de relații care trece prin mijlocul datelor. Predicția cea mai probabilă pentru înălțimea unui fiu al cărui tată are înălțimea de 180 cm, este de 178,59 cm, având în vedere că relația medie este:

Înălțime fiu=86,7+0,514 (înălțimea tatălui)=178,59

În mod clar, este foarte puțin probabil ca înălțimea fiului să fie exact 178,59, media postulată de relație, deoarece perechile de înălțimi ale părinților și fiii fluctuează foarte mult în jurul valorii mediei prezentate în Figura 9. Erorile sau incertitudinile din predicții depind de dimensiunile erorilor și de distribuția acestora. Aceste erori, prezentate în Figura 8, fluctuează de la aproximativ -22,5 la +22,8 cm, majoritatea fiind între -12,4 și +12,4. În plus, distribuția erorilor de prognoză pare mai mult ca o curbă normală, deși există mai multe erori negative apropiate de medie decât cea postulată de distribuția normală, și mai multe foarte mici și foarte mari. Având în vedere aceste diferențe, dacă putem presupune că distribuția erorilor este normală, putem specifica un nivel de incertitudine de 95% ca fiind:

Înălțime fiu=86,7+0,514 (înălțimea tatălui)\pm1,96(6,19),

unde, 6,19 este deviația standard reziduală.

Prin urmare,

Înălțime fiu=178,59\pm12,3,

Fig. 8. Erorile reziduale ale relațiilor înălțimii tați/fii (sus)
Fig. 9. Înălțimi: tați și fii (jos)

Chiar și în acest exemplu simplu, ±12,3 cm indică o mare nesiguranță în predicție, care suferă și de faptul că distribuția erorilor nu este în întregime normală. În plus, există o altă problemă care afectează serios incertitudinea. Dacă erorile sunt reprezentate în raport cu înălțimile fiilor (Fig.10), ele prezintă o corelație puternică, ceea ce înseamnă că prima formulă de calcul a înălțimii fiului subestimează înălțimile mici și le supraestimează pe cele mari. Este deci îndoielnic faptul că prognoza specificată prin prima formulă este cea mai bună disponibilă pentru înălțimile fiilor, în timp ce incertitudinea prezentată în a doua formulă nu poate fi estimată corect, deoarece erorile sunt foarte corelate. În cele din urmă, există o problemă suplimentară atunci când se prognozează folosirea relațiilor: valorile variabilelor independente trebuie, în marea majoritate a cazurilor, să fie prezise (nu este cazul primei formule în care înălțimea tatălui este cunoscută), adăugând un nivel suplimentar de incertitudine față de predicția dorită.

Prognozele din modelele econometrice au fost populare, dând naștere unei industrii cu venituri în sute de milioane de dolari. Astăzi, modelele econometrice au ieșit într-o oarecare măsură din modă, deoarece studiile empirice au arătat că predicțiile lor au fost mai puțin exacte decât cele ale metodelor seriilor de timp precum Box-Jenkins. Astăzi, acestea sunt utilizate numai de agențiile guvernamentale și organizațiile internaționale pentru simularea problemelor de politică și înțelegerea mai bună a consecințelor acestor probleme. Capacitatea lor predictivă nu este considerată de valoare (vezi Orrell & McSharry, 2009), deoarece limitările lor au fost acceptate chiar de înșiși econometricienii care și-au concentrat atenția asupra dezvoltării unor modele mai sofisticate, care să se potrivească mai bine cu datele disponibile.

Taleb (2007) reiterează ideea că astfel de consecințe trebuie luate în considerare la luarea deciziilor. El arată că prognozarea are un scop și că scopul este necesar să fie modificat atunci când ne confruntăm cu erori mari de prognoză și cu un nivel imens de incertitudine care nu poate fi evaluat în mod credibil.

Critica previziunii și incertitudinii

Constatările empirice din domeniul psihologiei judiciare au arătat că judecata umană este chiar mai puțin exactă în a face predicții decât modele statistice simple. Aceste descoperiri merg înapoi la lucrarea psihologului Meehl (1954), care a revizuit aproximativ 20 de studii în psihologie și a descoperit că metoda „statistică” de diagnostic a fost superioară abordării tradiționale „clinice”.

Când Meehl a publicat în 1954 o mică carte despre descoperirile cercetărilor sale, a fost întâmpinat cu indignare de către psihologii clinici din întreaga lume, care s-au simțit diminuați profesional și i-au respins cercetările. Multe studii ulterioare, totuși, au confirmat concluziile inițiale ale lui Meehl. O meta-analiză efectuată de Grove, Zald, Lebow, Snitz și Nelson (2000) a rezumat rezultatele a 136 de studii care compară predicțiile clinice și statistice într-o gamă largă de medii. Ei au concluzionat spunând:

Nu am identificat excepții sistematice față de superioritatea generală (sau cel puțin echivalența materială) a predicției mecanice. Asta ține de medicina generalistă, de sănătatea mintală, de personalitate și de educație și de formare profesională. Este valabil pentru judecătorii instruiți medical și pentru psihologi. Ține pentru judecători neexperimentați și sezonieri.

Un număr mare de persoane pot greși și știu că pot fi greși, din cauza confortului unui sistem. Ei își continuă activitatea „pentru că alți oameni o fac”. Nu au existat studii care să examineze noțiunea de difuzare a responsabilității în astfel de probleme de eroare de grup.

După cum subliniază Goldstein și Gigerenzer (2009) și Wright și Goodwin (2009), tendințele și limitările judecății umane afectează capacitatea sa de a lua decizii solide atunci când optimismul influențează previziunile sale. În plus, se pare că previziunile experților (Tetlock, 2005) nu sunt mai exacte decât cele ale altor persoane cunoscute. Mai rău, Tetlock a aflat că experții sunt mai puțin susceptibili să-și schimbe mintea decât non-experții, atunci când apar dovezi noi care să le dezmintă convingerile.

Cele mai puternice dovezi împotriva valorii predictive a judecății umane provin din domeniul investițiilor, unde un număr mare de comparații empirice au demonstrat, dincolo de cea mai mică îndoială, că randamentul managerilor profesioniști nu este mai bun decât o selecție aleatorie de acțiuni sau obligațiuni. Deoarece există aproximativ 8.500 de fonduri de investiții în SUA, este posibil ca un fond să poată bate, de exemplu, S&P500, timp de 13 ani la rând. Acest lucru se datorează capacității managerilor săi sau șanselor? Dacă presupunem că probabilitatea de a bate S&P 500 în fiecare an este de 50%, atunci dacă ar exista 8.192 de fonduri, ar fi posibil ca unul dintre ei să bată S&P500 timp de 13 ani la rând, din întâmplare. Astfel, nu este evident că fondurile care depășesc piața de mai mulți ani consecutiv fac acest lucru datorită capacității managerilor lor și mai degrabă pentru că au noroc. Până în prezent, nu există dovezi empirice care să demonstreze în mod concludent că managerii profesioniști au depășit în mod constant mediile de piață globale datorită propriilor abilități (și compensații).

În plus față de domeniul investițiilor, Makridakis, Hogarth și Gaba (2009) au ajuns la concluzia că în domeniile medicinii și afacerilor capacitatea predictivă a medicilor și a guru-lor în afaceri nu este mai bună decât ca simple repere. Aceste constatări ridică problema valorii experților: de ce să-i plătești pentru a furniza previziuni care nu sunt mai bune decât întâmplător sau au doar valoare de referință simple, cum ar fi media sau cea mai recentă valoare disponibilă?

O altă întrebare este, cât de bine poate evaluarea umană să evalueze incertitudinea viitoare? Dovezile empirice au arătat că abilitatea oamenilor de a evalua corect incertitudinea este chiar mai rea decât aceea de a prezice exact rezultatele viitoare. Astfel de dovezi au arătat că oamenii sunt excesiv de încrezători în așteptări pozitive, ignorând sau subminând informațiile negative. Aceasta înseamnă că, atunci când li se cere să precizeze intervalele de încredere, ei le fac prea strânse, fără a lua în considerare amenințarea cu posibilități precum consecințele recesiunii sau a crizei subprime și a creditului actual. Aceasta este o problemă gravă, deoarece metodele statistice nu pot prevedea recesiuni și crize financiare majore, creând un vid care să ducă la surprize și dificultăți financiare pentru un număr mare de persoane, deoarece nimeni nu le-a furnizat informații care să le permită să ia în considerare întreaga gamă de incertitudini asociate cu investițiile sau alte decizii și acțiuni.

Un rezumat al celor opt lucrări din această problemă

Această lucrare introductivă a lui Makridakis și Taleb demonstrează predictibilitatea limitată și nivelul înalt de incertitudine, practic în toate domeniile importante ale vieții noastre și implicațiile acesteia. Prezintă dovezi empirice care demonstrează această predictibilitate limitată, precum și exemple care ilustrează erorile majore implicate și nivelurile ridicate de incertitudine care nu pot fi evaluate în mod corespunzător, deoarece erorile de prognoză nu sunt independente, distribuite în mod normal și constante. În cele din urmă, lucrarea subliniază necesitatea de a fi rațional și realist cu privire la așteptările noastre față de prognoză și de a evita iluzia comună că predicțiile pot fi corecte și că incertitudinea poate fi evaluată corect.

(re)flexii

Mă opresc aici cu traducerea acestui capitol. Interesații o pot continua din documentul sursă.

Problemele cu care se confruntă cei ce prognozează

Prognozele modelelor statistice sunt „mecanice”, nu pot anticipa modificări și puncte de cotitură și nu pot face previziuni pentru situații noi sau când există cantități limitate de date. Aceste sarcini necesită informații, cunoștințe și abilități de învățare, care sunt posedate numai de oameni. Cu toate acestea, după cum am văzut, previziunile judecății sunt mai puțin exacte decât cele fără temei, mecaniciste furnizate de modele statistice. Analiștii se află între Scila și Caribda. Pe de o parte, ei înțeleg limitele modelelor statistice. Pe de altă parte, judecata lor nu poate fi de încredere. Cel mai mare avantaj al predicțiilor statistice este obiectivitatea lor, care pare a fi mai importantă decât inteligența, cunoștințele și capacitatea oamenilor de a învăța. Problema cu oamenii este că suferă de inconsecvență, de dorința de gândire și de tot felul de prejudecăți care le diminuează precizia predicțiilor. Credem că multe lucruri se pot face în această direcție.

Mai jos, rezumăm problema predictibilității limitate și nivelurile ridicate de incertitudine, folosind valorile zilnice ale DJIA și temperaturile din Paris. Disponibilitatea calculatoarelor rapide și memoria practic nelimitată ne-a permis să lucrăm cu serii lungi și să studiem cât de bine poate prognoza și să identifice incertitudinea. Tabelul 3 prezintă diferite statistici pentru modificările zilnice % în DJIA și schimbările zilnice ale temperaturilor din Paris, pentru fiecare deceniu între 1900 și 2008 (perioada 2000-2008 nu acoperă întregul deceniu). Tabelul 3 ne permite să determinăm cât de bine putem prognoza și să evaluăm incertitudinea pentru deceniul 1910-1920, având în vedere informațiile pentru decada 1900-1910, pentru deceniul 1920-1930, având în vedere informațiile pentru perioada 1910-1920 și așa mai departe.

Modificarea procentuală medie a DJIA și variația medie la temperatura din Paris

Modificarea procentuală medie în DJIA pentru deceniul 1900-1910 este de 0,019%. Dacă o astfel de schimbare ar fi fost utilizată ca prognoză pentru deceniul 1910-1920, rezultatele ar fi fost foarte precise. În plus, volatilitatea schimbărilor procentuale zilnice de la 1900-1910 ar fi fost un predictor excelent pentru perioada 1910-1920. Același lucru este valabil atât cu mijloacele, cât și cu deviațiile standard ale modificărilor din temperaturile zilnice, deoarece sunt foarte asemănătoare în deceniile 1900-1910 și 1910-1920. Începând cu deceniul 1920-1930, totuși, atât mijloacele, cât și abaterile standard ale procentului de schimbări zilnice ale DJIA variază foarte mult, de la 0,001% în anii 1930 până la 0,059% în anii 1990 (ceea ce înseamnă că 10.000 dolari investiți la începutul anilor 1930 ar fi ajuns la 10.334 dolari până la sfârșitul anului 1939, în timp ce aceeași sumă investită la începutul anului 1990 ar fi crescut la 44.307 dolari până la sfârșitul anului 1999). Diferențele sunt la fel de mari pentru deviațiile standard, care variază de la 0,65% în anii 1960 la 1,85% în 1930. Pe de altă parte, schimbările medii zilnice ale temperaturilor sunt mici, cu excepția probabil pentru perioada 2000-2008, când acestea a crescut la 0,005 grade. În plus, abaterile standard au rămas destul de constante în decursul celor unsprezece decenii.

Tabelul 3 transmite un mesaj clar. Previziunile pentru unele serii, cum ar fi DJIA, nu pot fi corecte, deoarece presupusa constanță a tiparelor lor și, eventual, a relațiilor, este încălcată. Aceasta înseamnă că prezicerea pentru următorul deceniu sau orice alt orizont de prognoză nu se poate baza pe informații istorice, deoarece atât media cât și fluctuațiile în jurul valorii mediei variază prea mult de la o decadă la alta. Creșterea la 0,005 în modificările temperaturii zilnice de la Paris pentru perioada 2000-2008 indică încălzirea globală? Aceasta este o întrebare la care nu o vom încerca să răspundem, așa cum a fost discutată în lucrarea lui Green și alții, în această problemă. Cu toate acestea, există posibilitatea ca, chiar și în serie de temperatura, să ne îngrijorăm despre o eventuală modificare a tendinței pe termen lung.

Ta. 3. Valorile statisticilor zilnice pentru DJIA și temperaturile din Paris pentru fiecare deceniu între 1900 și 2008

O altă tehnică pentru a privi diferențele este plecarea de la normalitate. Luați în considerare aplatizarea celor două variabile. Cele mai mari 5 observații ale temperaturii reprezintă 3,6% din aplatizarea totală. Pentru Dow Jones, cele mai mari 5 observații reprezintă 38% din aplatizare (de exemplu, aplatizarea în decada 1970-1980 este 1,89, în timp ce în următoarea decadă este un incredibil 68,84 – vezi Tabelul 3). Mai mult, sub agregare (adică prin intervale de observație mai lungi de 1 săptămână, 2 săptămâni sau 1 lună), aplatizarea temperaturii scade, iar cea a pieței bursiere nu se schimbă.

În viața reală, majoritatea seriilor se comportă ca DJIA; cu alte cuvinte, oamenii își pot influența modelele și pot afecta relațiile implicate prin acțiunile și reacțiile lor. În astfel de cazuri, prognoza este extrem de dificilă sau chiar imposibilă, deoarece implică prezicerea comportamentului uman, ceea ce este practic imposibil. Cu toate acestea, chiar și cu seriile ca temperatura, intervenția umană este de asemenea posibilă, deși nu există un consens în ceea ce privește prezicerea consecințelor acesteia.

Incertitudinea în prezicerea schimbărilor în DJIA și temperaturile din Paris

Datele începând din anul 1900 ne oferă o ocazie unică de a descompune în sub-perioade și de a obține informații utile prin examinarea consecvenței acestora (vezi Tabelul 3), așa cum am făcut deja pentru medie, iar acum putem evalua incertitudinea din aceste două serii. Abordarea tradițională de evaluare a incertitudinii presupune normalizarea și apoi construiește intervale de încredere în jurul valorii de medie. O astfel de abordare nu poate funcționa pentru modificările procentuale ale DJIA din trei motive. În primul rând, abaterile standard nu sunt constante; în al doilea rând, mijloacele se schimbă substanțial de la o decadă la alta (a se vedea tabelul 3); și în final, distribuția nu este normală (a se vedea figura 6). Evaluarea incertitudinii în schimbările temperaturilor din Paris nu suferă de prima sau de a doua problemă, deoarece mediile și deviațiile standard sunt destul de constante. Cu toate acestea, distribuția modificărilor nu este destul de normală (vezi figura 5), deoarece există un număr considerabil de modificări extrem de mari și mici, în timp ce în medie există mai multe valori decât în curba normală.

Există o problemă suplimentară atunci când încercați să evaluați incertitudinea. Distribuția modificărilor variază de asemenea foarte mult, așa cum se poate vedea în Figura 11. Mai rău, acest lucru este valabil nu numai în datele DJIA, ci și în datele de temperatură. În anii ’70, de exemplu, distribuția procentului modificărilor DJIA a fost aproape de normal, cu cozile prea puțin groase (asimetria și aplatizarea distribuției au fost de 0,33, respectiv 1,89), în timp ce cea a anilor 1980 a fost prea înaltă în mijloc (aplatizarea era de 68,84, față de 1,89 în anii 1970) la ambele capete. Date fiind diferențele substanțiale în distribuția modificărilor sau erorilor, este posibil să se vorbească despre evaluarea incertitudinii în modelele statistice atunci când (a) distribuțiile nu sunt normale, chiar și în cazul temperaturilor din serie; (b) mijloacele și abaterile standard se modifică substanțial; și (c) distribuțiile sau erorile nu sunt constante? Credem că răspunsul este un puternic nu, care ridică îngrijorări serioase cu privire la realismul modelelor financiare care presupun că incertitudinea poate fi evaluată presupunând că erorile se comportă bine, cu o medie zero, o variație constantă, o distribuție stabilă și erori independente.

Marele avantaj al seriilor precum DJIA și temperaturile Parisului este numărul extrem de mare de puncte de date disponibile care ne permit să extragem diferite tipuri de informații, cum ar fi cele prezentate în Tabelul 3, care se bazează pe mai mult de 2.500 de observații în cazul DJIA și 3.650 pentru temperaturi. Cu toate acestea, seriile din viața reală rareori depășesc cel puțin câteva sute de observații, ceea ce face imposibilă construirea unor distribuții similare cu cele din Tabelul 3. Într-un astfel de caz, suntem complet incapabili să verificăm ipotezele necesare pentru a ne asigura că nu există probleme cu evaluarea incertitudinii. În cele din urmă, există o altă ipoteză și mai importantă, cea a independenței, care, de asemenea, nu reține adevărul și afectează negativ atât sarcina de prognoză, cât și cea de a evalua incertitudinea. De exemplu, este interesant de observat că între 15 septembrie și 1 decembrie 2008, 52,7% din fluctuațiile zilnice din DJIA au fost mai mari decât media  ±3 (abateri standard). În schimbările de temperatură există mai puține concentrații mari de valori extreme, dar din 1977 putem observa că marea majoritate a acestor valori sunt negative, obligându-ne din nou să punem la îndoială independența seriilor cum ar fi temperaturile, care par a fi influențate și de înregistrările ne-aleatoare ale temperaturilor mai mari și mai scăzute.

Fig. 11. Distribuția schimbărilor zilnice în DJIA și temperaturile din Paris. (a) Distribuția modificărilor procentuale zilnice în DJIA în anii 1970.
(b) Distribuția modificărilor procentuale zilnice în DJIA în anii 1980.
(c) Distribuția schimbărilor zilnice la temperaturile din Paris în anii 1970.
(d) Distribuția schimbărilor zilnice la temperaturile din Paris în anii 1980.

Concluzii

Prognoza viitorului nu este nici ușoară, nici sigură. În același timp, se pare că nu avem de ales. Dar, în realitate, avem posibilitatea de a alege: putem lua decizii pe baza dimensiunilor potențiale și a consecințelor erorilor de prognoză și ne putem structura, de asemenea, viețile pentru a fi robuste la astfel de erori. Într-un fel, care este motivația acestei probleme, putem face schimbări profunde în procesul decizional afectat de predicțiile viitoare.

Acest articol a subliniat tema principală a acestei secțiuni speciale a proiectului IJF (International Journal of Forecasting). Capacitatea noastră de a anticipa viitorul este limitată, cu consecința evidentă a nivelurilor ridicate de incertitudine. S-a dovedit o astfel de previzibilitate limitată, folosind dovezi empirice și patru seturi de date concrete. Mai mult decât atât, ne-a documentat incapacitatea de a evalua incertitudinea în mod corect și fiabil în situațiile din viața reală și a discutat problemele majore implicate. Din păcate, modelele și relațiile nu sunt constante, în timp ce în marea majoritate a cazurilor: (a) erorile nu se comportă bine, (b) valabilitatea lor nu este constantă, (c) distribuția erorilor nu este stabilă și, cel mai rău toate, (d) erorile nu sunt independente una de cealaltă.

 

Lasă un răspuns

Denumire
Email
Pagină web

Acest sit folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.