Praxisbuch Unsupervised Learning - Machine-Learning-Anwendungen für ungelabelte Daten mit Python programmieren
von: Ankur A. Patel
O'Reilly Verlag, 2020
ISBN: 9783960888765
Sprache: Deutsch
358 Seiten, Download: 6578 KB
Format: PDF, auch als Online-Lesen
Mehr zum Inhalt
Praxisbuch Unsupervised Learning - Machine-Learning-Anwendungen für ungelabelte Daten mit Python programmieren
Inhalt | 5 | ||
Einleitung | 13 | ||
Teil I: Grundlagen des Unsupervised Learning | 23 | ||
Kapitel 1: Unsupervised Learning im Ökosystem des maschinellen Lernens | 25 | ||
Grundbegriffe des maschinellen Lernens | 25 | ||
Regelbasiertes vs. maschinelles Lernen | 26 | ||
Supervised vs. Unsupervised | 1 | ||
Ein genauerer Blick auf überwachte Algorithmen | 33 | ||
Unüberwachte Algorithmen unter der Lupe | 39 | ||
Reinforcement Learning mithilfe von Unsupervised Learning | 48 | ||
Semi-supervised Learning | 49 | ||
Erfolgreiche Anwendungen von Unsupervised Learning | 49 | ||
Zusammenfassung | 51 | ||
Kapitel 2: Durchgehendes Projekt zum maschinellen Lernen | 53 | ||
Die Umgebung einrichten | 53 | ||
Die Daten im Überblick | 56 | ||
Datenvorbereitung | 57 | ||
Modellvorbereitung | 64 | ||
Modelle des maschinellen Lernens (Teil 1) | 66 | ||
Kennzahlen bewerten | 69 | ||
Modelle des maschinellen Lernens (Teil 2) | 75 | ||
Bewertung der vier Modelle mit dem Testset | 84 | ||
Ensembles | 88 | ||
Endgültige Modellauswahl | 91 | ||
Produktionspipeline | 92 | ||
Zusammenfassung | 93 | ||
Teil II: Unsupervised Learning mit Scikit-learn | 95 | ||
Kapitel 3: Dimensionsreduktion | 97 | ||
Die Motivation zur Dimensionsreduktion | 97 | ||
Algorithmen zur Dimensionsreduktion | 101 | ||
Hauptkomponentenanalyse | 102 | ||
Singulärwertzerlegung | 111 | ||
Zufallsprojektion | 113 | ||
Isomap | 115 | ||
Multidimensionale Skalierung | 116 | ||
Lokal lineare Einbettung | 117 | ||
Stochastische Nachbarschaftseinbettung mit Student-t-Verteilung | 118 | ||
Andere Methoden zur Dimensionsreduktion | 120 | ||
Zusammenfassung | 122 | ||
Kapitel 4: Anomalieerkennung | 125 | ||
Kreditkartenbetrugserkennung | 126 | ||
Anomalieerkennung mit normaler PCA | 129 | ||
Anomalieerkennung mit sparse PCA | 134 | ||
Anomalieerkennung mit Kernel-PCA | 137 | ||
Anomalieerkennung mit gaußscher Zufallsprojektion | 139 | ||
Anomalieerkennung mit sparse Zufallsprojektion | 141 | ||
Nicht lineare Anomalieerkennung | 142 | ||
Anomalieerkennung mit Dictionary Learning | 143 | ||
Anomalieerkennung mit Unabhängigkeitsanalyse | 145 | ||
Betrugserkennung auf dem Testset | 146 | ||
Zusammenfassung | 151 | ||
Kapitel 5: Clustering | 153 | ||
Das MNIST-Ziffern-Dataset | 154 | ||
Clustering-Algorithmen | 155 | ||
k-Means-Algorithmus | 156 | ||
Hierarchisches Clustering | 163 | ||
DBSCAN | 169 | ||
Zusammenfassung | 173 | ||
Kapitel 6: Gruppensegmentierung | 175 | ||
Lending-Club-Daten | 175 | ||
Güte der Cluster | 182 | ||
k-Means-Anwendung | 184 | ||
Anwendung mit hierarchischem Clustering | 186 | ||
Anwendung mit HDBSCAN | 190 | ||
Zusammenfassung | 192 | ||
Teil III: Unsupervised Learning mit TensorFlow und Keras | 193 | ||
Kapitel 7: Autoencoder | 195 | ||
Neuronale Netze | 196 | ||
Autoencoder: der Encoder und der Decoder | 199 | ||
Untervollständige Autoencoder | 200 | ||
Übervollständige Autoencoder | 201 | ||
Dichte vs. sparsame Autoencoder | 201 | ||
Autoencoder zur Rauschunterdrückung | 202 | ||
Variational Autoencoder | 202 | ||
Zusammenfassung | 203 | ||
Kapitel 8: Praktische Autoencoder | 205 | ||
Datenvorbereitung | 205 | ||
Die Bestandteile eines Autoencoders | 208 | ||
Aktivierungsfunktionen | 208 | ||
Unser erster Autoencoder | 209 | ||
Zweischichtiger untervollständiger Autoencoder mit linearer Aktivierungsfunktion | 216 | ||
Nicht linearer Autoencoder | 222 | ||
Übervollständiger Autoencoder mit linearer Aktivierung | 224 | ||
Übervollständiger Autoencoder mit linearer Aktivierung und Drop-out | 227 | ||
Sparse übervollständiger Autoencoder mit linearer Aktivierung | 229 | ||
Sparse übervollständiger Autoencoder mit linearer Aktivierung und Drop-out | 231 | ||
Mit verrauschten Datasets arbeiten | 233 | ||
Rauschreduzierender Autoencoder | 233 | ||
Zusammenfassung | 241 | ||
Kapitel 9: Semi-supervised Learning | 243 | ||
Datenvorbereitung | 243 | ||
Supervised Modelle | 246 | ||
Unsupervised Modelle | 248 | ||
Semi-supervised Modelle | 250 | ||
Die Leistung von supervised und unsupervised Modellen | 253 | ||
Zusammenfassung | 253 | ||
Teil IV: Deep Unsupervised Learning mit TensorFlow und Keras | 255 | ||
Kapitel 10: Empfehlungsdienste mit beschränkten Boltzmann-Maschinen | 257 | ||
Boltzmann-Maschinen | 257 | ||
Empfehlungsdienste | 259 | ||
MovieLens-Dataset | 260 | ||
Matrixfaktorisierung | 266 | ||
Kollaboratives Filtern mit RBMs | 269 | ||
Zusammenfassung | 275 | ||
Kapitel 11: Featureerkennung mit Deep Belief Networks | 277 | ||
Deep Belief Networks im Detail | 277 | ||
MNIST-Bildklassifizierung | 278 | ||
Beschränkte Boltzmann-Maschinen | 279 | ||
Die drei RBMs für das DBN trainieren | 284 | ||
Das vollständige DBN | 289 | ||
Wie Unsupervised Learning das Supervised Learning unterstützt | 294 | ||
Bildklassifizierung mit LightGBM | 299 | ||
Zusammenfassung | 302 | ||
Kapitel 12: Generative Adversarial Networks | 303 | ||
GANs – das Konzept | 303 | ||
Deep Convolutional GANs | 304 | ||
Convolutional Neural Networks | 305 | ||
Noch einmal: DCGANs | 309 | ||
MNIST-DCGAN in Aktion | 314 | ||
Zusammenfassung | 316 | ||
Kapitel 13: Zeitreihen-Clustering | 319 | ||
EKG-Daten | 320 | ||
Ansatz für Zeitreihen-Clustering | 320 | ||
Zeitreihen-Clustering mit k-Shape auf ECGFiveDays | 321 | ||
Zeitreihen-Clustering mit k-Shape auf ECG5000 | 327 | ||
Zeitreihen-Clustering mit k-Means auf ECG5000 | 332 | ||
Zeitreihen-Clustering mit hierarchischem DBSCAN auf ECG5000 | 333 | ||
Die Zeitreihen-Clustering-Algorithmen vergleichen | 334 | ||
Zusammenfassung | 340 | ||
Kapitel 14: Zum Schluss | 341 | ||
Supervised Learning | 342 | ||
Unsupervised Learning | 342 | ||
Reinforcement Learning | 344 | ||
Die vielversprechendsten Bereiche des Unsupervised Learning | 345 | ||
Die Zukunft des Unsupervised Learning | 346 | ||
Schlusswort | 348 | ||
Index | 349 |