Hugendubel.info - Die B2B Online-Buchhandlung 

Merkliste
Die Merkliste ist leer.
Bitte warten - die Druckansicht der Seite wird vorbereitet.
Der Druckdialog öffnet sich, sobald die Seite vollständig geladen wurde.
Sollte die Druckvorschau unvollständig sein, bitte schliessen und "Erneut drucken" wählen.

Neuronale Netze und Deep Learning kapieren

Der einfache Praxiseinstieg mit Beispielen in Python
BuchKartoniert, Paperback
360 Seiten
Deutsch
MITP-Verlagerschienen am30.11.2019
Von den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-AlgorithmenAnschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPyKeine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlichDeep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht. Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz. Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen.Aus dem Inhalt:Parametrische und nichtparametrische ModelleÜberwachtes und unüberwachtes LernenVorhersagen mit mehreren Ein- und AusgabenFehler messen und verringernHot und Cold LearningBatch- und stochastischer GradientenabstiegÜberanpassung vermeidenGeneralisierungDropout-VerfahrenBackpropagation und Forward PropagationBilderkennungVerarbeitung natürlicher Sprache (NLP)SprachmodellierungAktivierungsfunktionenSigmoid-FunktionTangens hyperbolicusSoftmaxConvolutional Neural Networks (CNNs)Recurrent Neural Networks (RNNs)Long Short-Term Memory (LSTM)Deep-Learning-Framework erstellenmehr
Verfügbare Formate
BuchKartoniert, Paperback
EUR29,99
E-BookEPUB0 - No protectionE-Book
EUR25,99
E-BookPDF0 - No protectionE-Book
EUR25,99

Produkt

KlappentextVon den Grundlagen Neuronaler Netze über Machine Learning bis hin zu Deep-Learning-AlgorithmenAnschauliche Diagramme, Anwendungsbeispiele in Python und der Einsatz von NumPyKeine Vorkenntnisse in Machine Learning oder höherer Mathematik erforderlichDeep Learning muss nicht kompliziert sein. Mit diesem Buch lernst du anhand vieler Beispiele alle Grundlagen, die du brauchst, um Deep-Learning-Algorithmen zu verstehen und anzuwenden. Dafür brauchst du nichts weiter als Schulmathematik und Kenntnisse der Programmiersprache Python. Alle Codebeispiele werden ausführlich erläutert und mathematische Hintergründe anhand von Analogien veranschaulicht. Der Autor erklärt leicht verständlich, wie Neuronale Netze lernen und wie sie mit Machine-Learning-Verfahren trainiert werden können. Du erfährst, wie du dein erstes Neuronales Netz erstellst und wie es mit Deep-Learning-Algorithmen Bilder erkennen sowie natürliche Sprache verarbeiten und modellieren kann. Hierbei kommen Netze mit mehreren Schichten wie CNNs und RNNs zum Einsatz. Fokus des Buches ist es, Neuronale Netze zu trainieren, ohne auf vorgefertigte Python-Frameworks zurückzugreifen. So verstehst du Deep Learning von Grund auf und kannst in Zukunft auch komplexe Frameworks erfolgreich für deine Projekte einsetzen.Aus dem Inhalt:Parametrische und nichtparametrische ModelleÜberwachtes und unüberwachtes LernenVorhersagen mit mehreren Ein- und AusgabenFehler messen und verringernHot und Cold LearningBatch- und stochastischer GradientenabstiegÜberanpassung vermeidenGeneralisierungDropout-VerfahrenBackpropagation und Forward PropagationBilderkennungVerarbeitung natürlicher Sprache (NLP)SprachmodellierungAktivierungsfunktionenSigmoid-FunktionTangens hyperbolicusSoftmaxConvolutional Neural Networks (CNNs)Recurrent Neural Networks (RNNs)Long Short-Term Memory (LSTM)Deep-Learning-Framework erstellen
Details
ISBN/GTIN978-3-7475-0015-6
ProduktartBuch
EinbandartKartoniert, Paperback
Erscheinungsjahr2019
Erscheinungsdatum30.11.2019
Seiten360 Seiten
SpracheDeutsch
Gewicht608 g
Artikel-Nr.47332978

Inhalt/Kritik

Kritik
»Wer nicht nur Programmzeilen abtippen, sondern auch die inneren Zusammenhänge des maschinellen Lernens verstehen will, ist bei diesem Buch genau richtig. Es lohnt sich, genug Zeit zu investieren, um die Beispiele nachzuprogrammieren.« (iX, 09/2020)
»Wer als Net-Entwickler in die Welt der Künstlichen Intelligenz einzusteigen versucht, hat zunächst eine etwas schwierige Ausgangsposition. Das vorliegende Buch ist aber eines jener Werke, dessen Kauf man letztendlich nicht bereut - der Schwierigkeitsgrad bzw. die Menge an mathematischen Ausführungen ist gelungen gewählt, so dass man sich weder langweilt noch überfordert fühlt.« (windows.developer, 09/2020)
»Durch sinnvoll gewählte Abstraktionen vermittelt (der Autor) Python-Programmierern auch ohne fortgeschrittene Mathematik solides Grundwissen über neuronale Netze und Deep Learning. [...] Anstatt zu theoretisieren, zündet er ein Feuerwerk von Anregungen für Programmierpraktiker.« (c't, 06/2020)
»Das vorliegende Buch [...] erklärt mit vielen Beispielen in einfacher Weise, wie künstliche neuronale Netze lernen und wie sie mit Deep-Learning-Verfahren trainiert werden können. [...] Didaktisch gut aufgebaut.« (Ekz Bibliotheks-Service, 02/2020)
mehr

Schlagworte

Autor

Andrew W. Trask ist Doktorand an der Oxford University und als Research Scientist für DeepMind tätig. Zuvor war er Researcher und Analytics Product Manager bei Digital Reasoning, wo er u.a. das größte künstliche Neuronale Netz der Welt trainierte.
Neuronale Netze und Deep Learning kapieren
Weitere Artikel von
Trask, Andrew W.