Professional Documents
Culture Documents
W międzyczasie, tj. w roku 1970, pojawiła się krytyka podejścia Beavera, które w swoich
badaniach zastosował również E. I. Altman, wyrażona przez C. Johnsona. Nie zgadzał się on z opinią,
że modele opracowane na podstawie danych ex post mogą być dobrymi predyktorami kondycji
finansowej przedsiębiorstw. Dało to początek dyskusji na temat użyteczności tak budowanych modeli
oceny zagrożenia kontynuacji działalności przedsiębiorstw ze względu na spadek trafności prognoz ex
ante. Wśród wskazywanych przyczyn takiego stanu, można przytoczyć argument niestabilności
danych w czasie oraz zróżnicowane wyniki branżowe wpływające ostatecznie na zaszeregowanie
przedsiębiorstw do grupy bankrutów. Naukowcami, którzy udokumentowali w sposób empiryczny
zasadnicze zmiany niektórych wskaźników finansowych w czasie, byli G. Pinches, K. Mingo i J.
Caruthers (1973). E. I. Altman i H. Izan (1984) oraz H. Izan (1984) zaproponowali natomiast, dla
monitorowania wahań w obrębie danej gałęzi przemysłu, zastosowanie wskaźnika przedsiębiorstwo /
branża. Stosując go w próbie badającej podmioty australijskie uzyskali stabilne wyniki klasyfikacji ex
post i ex ante.
W roku 1972 R. O. Edmister opublikował swoje wyniki badań wykazując, że zdolność analizy
wskaźnikowej do przewidywania bankructwa zależy od metody służącej do szacowania modelu i
selekcji wskaźników finansowych. Stwierdził on dodatkowo, że pojedynczy wskaźnik nie wskazuje na
możliwość bankructwa równie dobrze jak niewielka grupa różnych wskaźników. Stworzona przez R. O.
Edmistera propozycja modelu została zbudowana przy wykorzystaniu modelowania regresyjnego
(regresja zero-jedynkowa) i wykorzystywała po raz pierwszy wskaźniki oparte na przepływach
pieniężnych.
Propozycja modelu stworzonego w 1974 roku przez M. Bluma oprócz wskaźników
finansowych wprowadzała pozycje dotychczas niestosowane, które Autor zaliczył do kategorii
mierników zmienności: odchylenie standardowe zysku netto, zmianę trendu zysku netto, nachylenie
trendu zysku netto oraz relacje mierników zmienności do wartości zapasów.
Publikacja R. Eisenbeisa z roku 1977 wskazywała na problemy metodologiczne i statystyczne
związane z wykorzystaniem analizy dyskryminacyjnej w praktyce. Dotyczyły one rozkładu zmiennych
w stosowanych wzorach, rozproszenia w grupach wskaźników i różnej ich interpretacji, doboru
przedsiębiorstw do próby oraz sposobu szacowania błędów klasyfikacji. Dalsze badania nad prognozą
upadłości podejmowane w kolejnych latach dotyczyły zwykle zastosowania nowych metod
ilościowych, zastosowania oryginalnego zestawu wskaźników finansowych, określania proporcji nie-
bankrutów i bankrutów w próbie oraz wpływu homogeniczności grup na dokładność prognostyczną
modeli.
Do innych interesujących i oryginalnych metod wykorzystywanych do prognozowania
upadłości przedsiębiorstw należą: teoria katastrof , podział rekursywny, programowanie
matematyczne, systemy eksperckie, analiza przeżycia, sieci neuronowe, wielokryterialne metody
wspierania decyzji.
Wymienione wyżej badania są pewnym wycinkiem prac badawczych nad sygnalizowaniem
zagrożeń kontynuacji działalności przedsiębiorstw i siłą rzeczy związane są przede wszystkim z
rynkiem amerykańskim, gdzie ich rozwój został zapoczątkowany. Rzadko wymienia się opracowania
3
badaczy z innych krajów, którzy najczęściej wzorowali się w swoich poszukiwaniach na propozycjach
swoich kolegów z USA i wykorzystywali do budowy modelu liniową postać funkcji dyskryminacyjnej.
Selekcja obiektów
empirycznej oceny jej jakości jest porównanie rzeczywistych przynależności obiektów tworzących
próbę z ich zaklasyfikowaniem uzyskanym na podstawie oszacowanej funkcji dyskryminacyjnej, gdzie
wartością rozgraniczającą (cut-off point) jest zazwyczaj wartość 0 (Z(x) > 0 – oznacza, że obiekt
uznano za nie-bankruta, zaś Z(x) 0 – oznacza bankruta)1.
Procedura weryfikacyjna (walidacyjna) może być przeprowadzona na podstawie grupy
analitycznej i grupy walidacyjnej. Badanie przeprowadzone jedynie na grupie analitycznej nosi nazwę
wewnętrznej analizy trafności klasyfikacji, a ponieważ te same obiekty – z uwagi na zbyt małą ich
liczbę – są wykorzystywane zarówno do budowy funkcji jak też oceny jej jakości, prowadzi to w
efekcie do obciążonej (zawyżonej) oceny jakości funkcji dyskryminacyjnej. Jeżeli natomiast w
dyspozycji jest na tyle liczna grupa przedsiębiorstw, że obok grupy analitycznej, na podstawie której
szacowano parametry modelu, możliwe jest wyodrębnienie grupy walidacyjnej, wykorzystywanej tylko
do oceny jakości funkcji, uzyskuje się miarę obiektywną, a badanie takie nosi nazwę zewnętrznej
analizy trafności klasyfikacji. Niezależnie od grupy obiektów, na bazie której przeprowadzamy
weryfikację, w wyniku porównania klasyfikacji poszczególnych obiektów otrzymujemy tzw. macierz
klasyfikacji, w której zestawione są poprawne i błędne oszacowania funkcji dyskryminacyjnej.
1
Przy wyprowadzaniu postaci funkcji dyskryminacyjnej zakłada się zwykle, że prawdopodobieństwo a priori przynależności
obiektów do obu grup jest takie samo i wynosi ½. Wówczas wartością je rozgraniczającą jest 0. Zazwyczaj wokół wartości
granicznej (cut-off) znajdują się obiekty tworzące tzw. „szarą strefę”. Ich cechą charakterystyczną jest to, że chociaż
obserwacja „bardziej pasuje” do jednej grupy, to w rzeczywistości należą one do drugiej z nich. Przesuwanie wartości granicznej
rozdzielającej bankrutów i nie-bankrutów powoduje w efekcie, że owe „wątpliwe” obiekty zostają w różny sposób
zaklasyfikowane. Manipulowanie wartością prawdopodobieństwa a priori przy klasyfikowaniu obiektów (powodujące
przesuwanie granicznej wartości funkcji dyskryminacyjnej) jest narzędziem pozwalającym w elastyczny sposób rozwiązywać
problem „szarej strefy” (i w zależności od celu badania „wątpliwe” obiekty zaliczać do jednej lub drugiej grupy).
6
funkcji dyskryminacyjnej powinno dążyć się do minimalizacji ogólnego błędu klasyfikacji, przy
zachowaniu minimalnej liczby błędnych oszacowań nie tylko I ale też II typu, przy czym w wielu
modelach prognozowania zagrożenia upadłością za bardziej istotny uważa się minimalizację błędnych
klasyfikacji bankrutów.
2
Wyniki badań opisanych tutaj są efektem II etapu prac nad konstrukcją wielowskaźnikowego modelu bankructwa
przystosowanego do analizy polskich przedsiębiorstw. Pierwszy etap badań doprowadził do wyestymowania modeli, które nie
charakteryzowały się zadowalającą precyzją oraz wiarygodnością statystyczną, w związku z czym wymagały one znacznej
modyfikacji. Por: J. Gajdka, D. Stos, Wykorzystanie analizy dyskryminacyjnej w przewidywaniu bankructwa spółki, w:
Przedsiębiorstwo na rynku kapitałowym, Red. J. Duraj, Wyd. Uniwersytetu Łódzkiego, Łódź 1966, s. 138-148.
3
Kryterium zaliczenia do grupy był formalny wyznacznik znalezienia się przedsiębiorstwa w stanie niewypłacalności, za który
uznano: rozpoczęcie procesu likwidacji spowodowanej sytuacją finansową, układ sądowy z wierzycielami lub też - ugodę
bankową dokonaną na podstawie ustawy o restrukturyzacji finansowej przedsiębiorstw i .banków. Przyjęto w tym przypadku
założenie, że przedsiębiorstwa, które znalazły się w omawianych sytuacjach, chociaż formalnie nie są traktowane jako
przedsiębiorstwa w stanie bankructwa, w praktyce nie są w stanie wywiązywać się z zaciągniętych zobowiązań.
7
Przedsiębiorstwo
Źródło: Opracowanie własne na podstawie D. Hadasik, Upadłość ... , op. cit., s. 166
Przedsiębiorstwo
4
W grupie bankrutów Autor poddał weryfikacji jedynie 5 kredytobiorców, gdzie celem było ustalenie możliwości kontynuowania
działalności jednostek wytypowanych przez jeden z banków jako nie rokujących nadziei na spłatę zadłużenia. W przypadku
dwóch z nich uzyskano zdecydowane potwierdzenie takiego zagrożenia, a w pozostałych trzech stwierdzono niepewność w tym
zakresie.
10
5
K. Michaluk przeprowadził swoje badania w dwóch etapach. Podejście takie wiązało się ze zróżnicowaniem wykorzystanych
metod budowy funkcji prognozującej zagrożenie bankructwem. W związku z tym w pierwszym etapie polegającym na budowie
liniowej postaci funkcji dyskryminacyjnej, zgodnie z literaturowymi postulatami, opierał się na próbie o równej liczbie bankrutów
i nie-bankrutów. Wówczas do grupy uczącej (analitycznej) zastosował po 40 jednostek z obu zbiorowości, a do grupy testującej
(walidacyjnej) po 39 jednostek. Drugi etap wiązał się z weryfikacją modelu stworzonego na bazie sztucznych sieci neuronowych
i polegał na zastosowaniu trzech różnych proporcji w grupie uczącej i testującej (1:1, 1:3, 1:10).
6
Dane finansowe przedsiębiorstw funkcjonujących Autor modelu zaczerpnął z Monitora Polskiego B i dotyczyły one okresu
1995-1998, a ich dobór uwarunkowany był charakterystykami jednostek upadłych.
11
Przedsiębiorstwo
Liczba Trafność
jednostek klasyfikacji
w próbie w próbie (%)
analitycznej (ogółem) Wartość
Okres rozgraniczająca
nie upadłych
walidacyjnej
Autor modelu
analitycznej
upadłych
7
Autor poleca zastosować formułę, w której kapitał całkowity odzwierciedla wartość pasywów pomniejszoną o rozliczenia
12
międzyokresowe.
8
Na przykład w badaniach E. I. Altmana okazało się, że w próbie walidacyjnej ogólna (czyli łączna dla upadłych i zdrowych)
trafność klasyfikacji, zgodnie z oczekiwaniami, pogorszyła się, jednakże dla podmiotów upadłych uległa poprawie. Trochę
inaczej przedstawia się sytuacja dla wyników badań D. Hadasik, gdzie ogólna trafność klasyfikacji w próbie walidacyjnej, dla
omawianego tutaj modelu, uległa nieznacznej poprawie (wzrost z 95,08% do 95,74 %) przy jednoczesnej poprawie jakości
proponowanej funkcji dla przedsiębiorstw upadłych (wzrost z 90,91% do 100%). Por. E. I. Altman, Financial..., op. cit. , s. 589-
609; D. Hadasik, Upadłość..., op. cit. s. 166.