POLECAMY
Autor:
Format:
ibuk
Książka jest nowoczesnym podręcznikiem statystycznego uczenia maszynowego, czyli statystycznej analizy danych wielowymiarowych rozpatrywanej z perspektywy popularnej dziś eksploracji danych (ang. data mining). Wyłożony materiał może być podstaw kursu semestralnego. Pierwszych siedem rozdziałów poświęcono systemom uczącym się pod nadzorem. Omówiono praktycznie wszystkie ważne metody klasyfikacji pod nadzorem (analizy dyskryminacyjnej) oraz metody analizy regresji, poczynając od klasycznych i kończąc na najnowszych. Dwa ostatnie rozdziały stanowią przegląd systemów uczących się bez nadzoru. Przedstawiono metody rzutowania i wykrywania zmiennych ukrytych - m.in. analizę składowych głównych, analizę czynnikową, analizę składowych niezależnych i skalowanie wielowymiarowe - oraz metody analizy skupień. wskazano związki łączące metody statystyczne ze sztucznymi sieciami neuronowymi. Nacisk położono wszędzie na opisanie matematycznych i intuicyjnych podstaw omawianych metod.
Książka jest przeznaczona dla wszystkich zainteresowanych analizą danych i zarazem pomyślana jako podręcznik dla studentów matematyki stosowanej i informatyki, wszystkich kierunków technicznych, wybranych kierunków nauk przyrodniczych, ekonomicznych i społecznych. Jest swego rodzaju kontynuacją popularnego podręcznika J. Koronackiego i J. Mielniczuka "Statystyka dla studentów kierunków technicznych i przyrodniczych", WNT 2006 lub wydania wcześniejsze.
Rok wydania | 2015 |
---|---|
Liczba stron | 327 |
Kategoria | Inne |
Wydawca | Akademicka Oficyna Wydawnicza EXIT Andrzej Lang |
ISBN-13 | 978-83-7837-556-2 |
Numer wydania | 1 |
Język publikacji | polski |
Informacja o sprzedawcy | ePWN sp. z o.o. |
POLECAMY
Ciekawe propozycje
Spis treści
Przedmowa do wydania pierwszego | |
Przedmowa do wydania drugiego | |
1. Liniowe metody klasyfikacji | |
1.1. Klasyfikacja pod nadzorem - wprowadzenie | |
1.2. Fisherowska dyskryminacja liniowa | |
1.3. Dyskryminacja oparta na regresji linowej i logistycznej | |
1.4. Perceptron Rosenblatta | |
2. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa | |
2.1. Klasyfikator bayesowski i metoda największej wiarogodności | |
2.2. Optymalność reguły bayesowskiej | |
2.3. Praktyczna konstrukcja klasyfikatorów | |
3. Metody klasyfikacji oparte na nieparametrycznej estymacji | |
3.1. Wprowadzenie | |
3.2. Nieparametryczna estymacja rozkładów w klasach | |
3.3. Metoda najbliższych sąsiadów | |
4. Drzewa klasyfikacyjne i rodziny klasyfikatorów | |
4.1. Wprowadzenie | |
4.2. Reguły podziału | |
4.3. Reguły przycinania drzew | |
4.4. Drzewa klasyfikacyjne - uwagi | |
4.5. Rodziny klasyfikatorów - algorytmy bagging i boosting | |
4.6. Rodziny klasyfikatorów - lasy losowe | |
5. Analiza regresji | |
5.1. Globalne modele parametryczne | |
5.2. Regresja nieparametryczna | |
5.3. Efekty losowe i liniowe modele mieszane | |
5.4. Uwagi końcowe | |
6. Uogólnienia metod liniowych | |
6.1. Dyskryminacja elastyczna | |
6.2. Maszyny wektorów podpierających | |
7. Systemy uczące się pod nadzorem - podsumowanie, uwagi dodatkowe | |
7.1. Podsumowanie | |
7.2. Uwagi dodatkowe | |
8. Metody rzutowania, wykrywania zmiennych ukrytych | |
8.1. Systemy uczące się bez nadzoru - wprowadzenie | |
8.2. Analiza składowych głównych | |
8.3. Estymacja gęstości wzdłuż interesujących rzutów | |
8.4. Analiza czynnikowa i analiza składowych niezależnych | |
8.5. Podobieństwo, odmienność i odległość między obiektami | |
8.6. Skalowanie wielowymiarowe | |
8.7. Metody jądrowe w systemach uczących się | |
9. Analiza skupień | |
9.1. Metody kombinatoryczne | |
9.2. Metody hierarchiczne - dendrogramy | |
9.3. Inne metody klasyczne | |
9.4. Trzy nieklasyczne podejścia do analizy skupień | |
Książki cytowane | |
Skorowidz | |