Deep Learning : Das umfassende Handbuch : Grundlagen, aktuelle Verfahren und Algorithmen, neue Forschungsansätze
Bibliographische Detailangaben
- Titel
- Deep Learning Das umfassende Handbuch : Grundlagen, aktuelle Verfahren und Algorithmen, neue Forschungsansätze
- verantwortlich
- ; ; ;
- Ausgabe
- 1st edition
- veröffentlicht
- Erscheinungsjahr
- 2018
- Teil von
- mitp Professional
- Erscheint auch als
- Goodfellow, Ian, 1987 - , Deep Learning, 1. Auflage, Frechen : mitp, 2018, xxii, 883 Seiten
- Andere Ausgaben
- Deep Learning: das umfassende Handbuch : Grundlagen, aktuelle Verfahren und Algorithmen, neue Forschungsansätze
- Medientyp
- E-Book
- Datenquelle
- K10plus Verbundkatalog
- Tags
- Tag hinzufügen
Zugang
Weitere Informationen sehen Sie, wenn Sie angemeldet sind. Noch keinen Account? Jetzt registrieren.
- Details Klicken Sie hier, um den Inhalt der Registerkarte zu laden.
- Standorte Klicken Sie hier, um den Inhalt der Registerkarte zu laden.
- Internformat Klicken Sie hier, um den Inhalt der Registerkarte zu laden.
- Zusammenfassung
- Intro -- Impressum -- Website zum Buch -- Danksagung -- Über die Fachkorrektoren zur deutschen Ausgabe -- Notation -- Einleitung -- Für wen ist dieses Buch gedacht? -- Historische Entwicklungen im Deep Learning -- I Angewandte Mathematik und Grundlagen für das Machine Learning -- Lineare Algebra -- Skalare, Vektoren, Matrizen und Tensoren -- Multiplizieren von Matrizen und Vektoren -- Einheits- und Umkehrmatrizen -- Lineare Abhängigkeit und lineare Hülle -- Normen -- Spezielle Matrizen und Vektoren -- Eigenwertzerlegung -- Singulärwertzerlegung -- Die Moore-Penrose-Pseudoinverse -- Der Spuroperator -- Die Determinante -- Beispiel: Hauptkomponentenanalyse -- Wahrscheinlichkeits- und Informationstheorie -- Warum Wahrscheinlichkeit? -- Zufallsvariablen -- Wahrscheinlichkeitsverteilungen -- Randwahrscheinlichkeit -- Bedingte Wahrscheinlichkeit -- Die Produktregel der bedingten Wahrscheinlichkeiten -- Unabhängigkeit und bedingte Unabhängigkeit -- Erwartungswert, Varianz und Kovarianz -- Häufig genutzte Wahrscheinlichkeitsverteilungen -- Nützliche Eigenschaften häufig verwendeter Funktionen -- Satz von Bayes -- Technische Einzelheiten stetiger Variablen -- Informationstheorie -- Strukturierte probabilistische Modelle -- Numerische Berechnung -- Überlauf und Unterlauf -- Schlechte Konditionierung -- Optimierung auf Gradientenbasis -- Optimierung unter Nebenbedingungen -- Beispiel: Lineare kleinste Quadrate -- Grundlagen für das Machine Learning -- Lernalgorithmen -- Kapazität, Überanpassung und Unteranpassung -- Hyperparameter und Validierungsdaten -- Schätzer, Verzerrung und Varianz -- Maximum-Likelihood-Schätzung -- Bayessche Statistik -- Algorithmen für überwachtes Lernen -- Algorithmen für unüberwachtes Lernen -- Stochastisches Gradientenabstiegsverfahren -- Entwickeln eines Machine-Learning-Algorithmus -- Probleme, an denen Deep Learning wächst.
- Umfang
- 1 Online-Ressource (XXII, 883 Seiten)
- Sprache
- Deutsch
- Schlagworte
- RVK-Notation
-
- Informatik
-
- Monografien
-
- Künstliche Intelligenz
-
- Allgemeines
- BK-Notation
- 54.72 Künstliche Intelligenz
- DDC-Notation
- 006.31
- ISBN
-
9783958457010