Statystyczne systemy uczące się. Wydanie drugie

Statystyczne systemy uczące się. Wydanie drugie

5 ocen

Format:

ibuk

W ABONAMENCIE

od 3,50

Masz już abonament? Zaloguj się

TA KSIĄŻKA JEST W ABONAMENCIE

Już od 49,00 zł miesięcznie za 5 ebooków!

WYBIERZ SWÓJ ABONAMENT

Książka jest nowoczesnym podręcznikiem statystycznego uczenia maszynowego, czyli statystycznej analizy danych wielowymiarowych rozpatrywanej z perspektywy popularnej dziś eksploracji danych (ang. data mining). Wyłożony materiał może być podstaw kursu semestralnego. Pierwszych siedem rozdziałów poświęcono systemom uczącym się pod nadzorem. Omówiono praktycznie wszystkie ważne metody klasyfikacji pod nadzorem (analizy dyskryminacyjnej) oraz metody analizy regresji, poczynając od klasycznych i kończąc na najnowszych. Dwa ostatnie rozdziały stanowią przegląd systemów uczących się bez nadzoru. Przedstawiono metody rzutowania i wykrywania zmiennych ukrytych - m.in. analizę składowych głównych, analizę czynnikową, analizę składowych niezależnych i skalowanie wielowymiarowe - oraz metody analizy skupień. wskazano związki łączące metody statystyczne ze sztucznymi sieciami neuronowymi. Nacisk położono wszędzie na opisanie matematycznych i intuicyjnych podstaw omawianych metod.


Książka jest przeznaczona dla wszystkich zainteresowanych analizą danych i zarazem pomyślana jako podręcznik dla studentów matematyki stosowanej i informatyki, wszystkich kierunków technicznych, wybranych kierunków nauk przyrodniczych, ekonomicznych i społecznych. Jest swego rodzaju kontynuacją popularnego podręcznika J. Koronackiego i J. Mielniczuka "Statystyka dla studentów kierunków technicznych i przyrodniczych", WNT 2006 lub wydania wcześniejsze.


Rok wydania2015
Liczba stron327
KategoriaInne
WydawcaAkademicka Oficyna Wydawnicza EXIT Andrzej Lang
ISBN-13978-83-7837-556-2
Numer wydania1
Język publikacjipolski
Informacja o sprzedawcyePWN sp. z o.o.

Ciekawe propozycje

Spis treści

  Przedmowa do wydania pierwszego
  Przedmowa do wydania drugiego
  1. Liniowe metody klasyfikacji
  
  1.1. Klasyfikacja pod nadzorem - wprowadzenie
  1.2. Fisherowska dyskryminacja liniowa
  1.3. Dyskryminacja oparta na regresji linowej i logistycznej
  1.4. Perceptron Rosenblatta
  
  2. Metody klasyfikacji oparte na rozkładach prawdopodobieństwa
  
  2.1. Klasyfikator bayesowski i metoda największej wiarogodności
  2.2. Optymalność reguły bayesowskiej
  2.3. Praktyczna konstrukcja klasyfikatorów
  
  3. Metody klasyfikacji oparte na nieparametrycznej estymacji
  
  3.1. Wprowadzenie
  3.2. Nieparametryczna estymacja rozkładów w klasach
  3.3. Metoda najbliższych sąsiadów
  
  4. Drzewa klasyfikacyjne i rodziny klasyfikatorów
  
  4.1. Wprowadzenie
  4.2. Reguły podziału
  4.3. Reguły przycinania drzew
  4.4. Drzewa klasyfikacyjne - uwagi
  4.5. Rodziny klasyfikatorów - algorytmy bagging i boosting
  4.6. Rodziny klasyfikatorów - lasy losowe
  
  5. Analiza regresji
  
  5.1. Globalne modele parametryczne
  5.2. Regresja nieparametryczna
  5.3. Efekty losowe i liniowe modele mieszane
  5.4. Uwagi końcowe
  
  6. Uogólnienia metod liniowych
  
  6.1. Dyskryminacja elastyczna
  6.2. Maszyny wektorów podpierających
  
  7. Systemy uczące się pod nadzorem - podsumowanie, uwagi dodatkowe
  
  7.1. Podsumowanie
  7.2. Uwagi dodatkowe
  
  8. Metody rzutowania, wykrywania zmiennych ukrytych
  
  8.1. Systemy uczące się bez nadzoru - wprowadzenie
  8.2. Analiza składowych głównych
  8.3. Estymacja gęstości wzdłuż interesujących rzutów
  8.4. Analiza czynnikowa i analiza składowych niezależnych
  8.5. Podobieństwo, odmienność i odległość między obiektami
  8.6. Skalowanie wielowymiarowe
  8.7. Metody jądrowe w systemach uczących się
  
  9. Analiza skupień
  
  9.1. Metody kombinatoryczne
  9.2. Metody hierarchiczne - dendrogramy
  9.3. Inne metody klasyczne
  9.4. Trzy nieklasyczne podejścia do analizy skupień
  
  Książki cytowane
  Skorowidz
RozwińZwiń