Hugendubel.info - Die B2B Online-Buchhandlung 

Merkliste
Die Merkliste ist leer.
Bitte warten - die Druckansicht der Seite wird vorbereitet.
Der Druckdialog öffnet sich, sobald die Seite vollständig geladen wurde.
Sollte die Druckvorschau unvollständig sein, bitte schliessen und "Erneut drucken" wählen.

Data Science für Unternehmen

E-BookPDF0 - No protectionE-Book
432 Seiten
Deutsch
mitp Verlags GmbH & Co. KGerschienen am27.10.20171. Auflage
Die grundlegenden Konzepte der Data Science verstehen, Wissen aus Daten ziehen und für Vorhersagen und Entscheidungen nutzen Die wichtigsten Data-Mining-Verfahren gezielt und gewinnbringend einsetzen Zahlreiche Praxisbeispiele zur Veranschaulichung Die anerkannten Data-Science-Experten Foster Provost und Tom Fawcett stellen in diesem Buch die grundlegenden Konzepte der Data Science vor, die für den effektiven Einsatz im Unternehmen von Bedeutung sind. Sie erläutern das datenanalytische Denken, das erforderlich ist, damit Sie aus Ihren gesammelten Daten nützliches Wissen und geschäftlichen Nutzen ziehen können. Sie erfahren detailliert, welche Methoden der Data Science zu hilfreichen Erkenntnissen führen, so dass auf dieser Grundlage wichtige Entscheidungsfindungen unterstützt werden können. Dieser Leitfaden hilft Ihnen dabei, die vielen zurzeit gebräuchlichen Data-Mining-Verfahren zu verstehen und gezielt und gewinnbringend anzuwenden. Sie lernen u.a., wie Sie: Data Science in Ihrem Unternehmen nutzen und damit Wettbewerbsvorteile erzielen Daten als ein strategisches Gut behandeln, in das investiert werden muss, um echten Nutzen daraus zu ziehen Geschäftliche Aufgaben datenanalytisch angehen und den Data-Mining-Prozess nutzen, um auf effiziente Weise sinnvolle Daten zu sammeln Das Buch beruht auf einem Kurs für Betriebswirtschaftler, den Provost seit rund zehn Jahren an der New York University unterrichtet, und nutzt viele Beispiele aus der Praxis, um die Konzepte zu veranschaulichen. Das Buch richtet sich an Führungskräfte und Projektmanager, die Data-Science-orientierte Projekte managen, an Entwickler, die Data-Science-Lösungen implementieren sowie an alle angehenden Data Scientists und Studenten. Aus dem Inhalt: Datenanalytisches Denken lernen Der Data-Mining-Prozess Überwachtes und unüberwachtes Data Mining Einführung in die Vorhersagemodellbildung: von der Korrelation zur überwachten Segmentierung Anhand der Daten optimale Modellparameter finden mit Verfahren wie lineare und logistische Regression sowie Support Vector Machines Prinzip und Berechnung der Ähnlichkeit Nächste-Nachbarn-Methoden und Clustering Entscheidungsanalyse I: Was ist ein gutes Modell Visualisierung der Leistung von Modellen Evidenz und Wahrscheinlichkeiten Texte repräsentieren und auswerten Entscheidungsanalyse II: Analytisches Engineering Data Science und Geschäftsstrategie


Foster Provost ist Professor an der New York University (NYU) Stern School of Business und lehrt u.a. Business Analytics und Data Science. In den letzten zehn Jahren hat Provost verschiedene erfolgreiche Unternehmen mitbegründet, die Data Science im Marketing einsetzen.

Tom Fawcett hat einen Doktortitel für Machine Learning und war mehr als zwei Jahrzehnte in verschiedenen Branchen wie GTE Laboratories, NYNEX/Verizon Labs, HP Labs in der Forschung und Entwicklung tätig. Die von ihm veröffentlichten Arbeiten zur Anwendung von Data Science (z.B. Erkennung von Betrugsfällen und Spamfilter) sind zu Standardwerken geworden.
mehr
Verfügbare Formate
BuchKartoniert, Paperback
EUR10,00
E-BookEPUB0 - No protectionE-Book
EUR29,99
E-BookPDF0 - No protectionE-Book
EUR29,99

Produkt

KlappentextDie grundlegenden Konzepte der Data Science verstehen, Wissen aus Daten ziehen und für Vorhersagen und Entscheidungen nutzen Die wichtigsten Data-Mining-Verfahren gezielt und gewinnbringend einsetzen Zahlreiche Praxisbeispiele zur Veranschaulichung Die anerkannten Data-Science-Experten Foster Provost und Tom Fawcett stellen in diesem Buch die grundlegenden Konzepte der Data Science vor, die für den effektiven Einsatz im Unternehmen von Bedeutung sind. Sie erläutern das datenanalytische Denken, das erforderlich ist, damit Sie aus Ihren gesammelten Daten nützliches Wissen und geschäftlichen Nutzen ziehen können. Sie erfahren detailliert, welche Methoden der Data Science zu hilfreichen Erkenntnissen führen, so dass auf dieser Grundlage wichtige Entscheidungsfindungen unterstützt werden können. Dieser Leitfaden hilft Ihnen dabei, die vielen zurzeit gebräuchlichen Data-Mining-Verfahren zu verstehen und gezielt und gewinnbringend anzuwenden. Sie lernen u.a., wie Sie: Data Science in Ihrem Unternehmen nutzen und damit Wettbewerbsvorteile erzielen Daten als ein strategisches Gut behandeln, in das investiert werden muss, um echten Nutzen daraus zu ziehen Geschäftliche Aufgaben datenanalytisch angehen und den Data-Mining-Prozess nutzen, um auf effiziente Weise sinnvolle Daten zu sammeln Das Buch beruht auf einem Kurs für Betriebswirtschaftler, den Provost seit rund zehn Jahren an der New York University unterrichtet, und nutzt viele Beispiele aus der Praxis, um die Konzepte zu veranschaulichen. Das Buch richtet sich an Führungskräfte und Projektmanager, die Data-Science-orientierte Projekte managen, an Entwickler, die Data-Science-Lösungen implementieren sowie an alle angehenden Data Scientists und Studenten. Aus dem Inhalt: Datenanalytisches Denken lernen Der Data-Mining-Prozess Überwachtes und unüberwachtes Data Mining Einführung in die Vorhersagemodellbildung: von der Korrelation zur überwachten Segmentierung Anhand der Daten optimale Modellparameter finden mit Verfahren wie lineare und logistische Regression sowie Support Vector Machines Prinzip und Berechnung der Ähnlichkeit Nächste-Nachbarn-Methoden und Clustering Entscheidungsanalyse I: Was ist ein gutes Modell Visualisierung der Leistung von Modellen Evidenz und Wahrscheinlichkeiten Texte repräsentieren und auswerten Entscheidungsanalyse II: Analytisches Engineering Data Science und Geschäftsstrategie


Foster Provost ist Professor an der New York University (NYU) Stern School of Business und lehrt u.a. Business Analytics und Data Science. In den letzten zehn Jahren hat Provost verschiedene erfolgreiche Unternehmen mitbegründet, die Data Science im Marketing einsetzen.

Tom Fawcett hat einen Doktortitel für Machine Learning und war mehr als zwei Jahrzehnte in verschiedenen Branchen wie GTE Laboratories, NYNEX/Verizon Labs, HP Labs in der Forschung und Entwicklung tätig. Die von ihm veröffentlichten Arbeiten zur Anwendung von Data Science (z.B. Erkennung von Betrugsfällen und Spamfilter) sind zu Standardwerken geworden.
Details
Weitere ISBN/GTIN9783958455474
ProduktartE-Book
EinbandartE-Book
FormatPDF
Format Hinweis0 - No protection
Erscheinungsjahr2017
Erscheinungsdatum27.10.2017
Auflage1. Auflage
Seiten432 Seiten
SpracheDeutsch
Artikel-Nr.3348343
Rubriken
Genre9200

Inhalt/Kritik

Inhaltsverzeichnis
1;Cover;1
2;Titel;3
3;Impressum;4
4;Inhaltsverzeichnis;5
5;Einleitung;13
6;Über die Autoren;21
7;Kapitel 1: Einführung: Datenanalytisches Denken;23
7.1;1.1 Allgegenwärtige Datenerfassungsmöglichkeiten;23
7.2;1.2 Beispiel: Hurrikan Frances;25
7.3;1.3 Beispiel: Vorhersage der Kundenfluktuation;26
7.4;1.4 Data Science, Engineering und datengestützte Entscheidungsfindung;27
7.5;1.5 Datenverarbeitung und »Big Data«;31
7.6;1.6 Von Big Data 1.0 zu Big Data 2.0;32
7.7;1.7 Daten und Data-Science-Fähigkeiten als strategisches Gut;33
7.8;1.8 Datenanalytische Denkweise;36
7.9;1.9 Dieses Buch;38
7.10;1.10 Data Mining und Data Science;39
7.11;1.11 In der Chemie geht es nicht um Reagenzgläser: Data Science vs. die Aufgabe des Data Scientists;40
7.12;1.12 Zusammenfassung;41
8;Kapitel 2: Geschäftliche Aufgaben und Data-Science-Lösungen;43
8.1;2.1 Von geschäftlichen Aufgaben zum Data-Mining- Verfahren;44
8.2;2.2 Überwachte vs. unüberwachte Verfahren;49
8.3;2.3 Ergebnisse des Data Minings;51
8.4;2.4 Der Data-Mining-Prozess;52
8.4.1;2.4.1 Aufgabenverständnis;53
8.4.2;2.4.2 Datenverständnis;54
8.4.3;2.4.3 Datenaufbereitung;56
8.4.4;2.4.4 Modellbildung;57
8.4.5;2.4.5 Beurteilung;57
8.4.6;2.4.6 Deployment;59
8.5;2.5 Auswirkungen auf das Management des Data-Science-Teams;61
8.6;2.6 Weitere Analyseverfahren und -Technologien;62
8.6.1;2.6.1 Statistik;63
8.6.2;2.6.2 Datenbankabfragen;65
8.6.3;2.6.3 Data Warehouses;66
8.6.4;2.6.4 Regressionsanalyse;67
8.6.5;2.6.5 Machine Learning und Data Mining;67
8.6.6;2.6.6 Geschäftliche Aufgaben durch diese Verfahren lösen;68
8.7;2.7 Zusammenfassung;70
9;Kapitel 3: Einführung in die Vorhersagemodellbildung: Von der Korrelation zur überwachten Segmentierung;71
9.1;3.1 Modelle, Induktion und Vorhersage;73
9.2;3.2 Überwachte Segmentierung;77
9.2.1;3.2.1 Auswahl informativer Merkmale;78
9.2.2;3.2.2 Beispiel: Merkmalsauswahl anhand des Informationsgewinns;86
9.2.3;3.2.3 Überwachte Segmentierung mit Baumstrukturmodellen;92
9.3;3.3 Segmentierungen visualisieren;98
9.4;3.4 Bäume als Regelsätze;100
9.5;3.5 Wahrscheinlichkeitsabschätzung;101
9.6;3.6 Beispiel: Abwanderungsrate per Entscheidungsbaum ermitteln;104
9.7;3.7 Zusammenfassung;108
10;Kapitel 4: Ein Modell an Daten anpassen;111
10.1;4.1 Klassifizierung via mathematischer Funktionen;113
10.1.1;4.1.1 Lineare Diskriminanzfunktion;115
10.1.2;4.1.2 Optimieren der Zielfunktion;118
10.1.3;4.1.3 Beispiel: Extraktion einer linearen Diskriminanzfunktion aus Daten;119
10.1.4;4.1.4 Lineare Diskriminanzfunktionen zur Beurteilung und zum Erstellen einer Rangfolge von Instanzen;121
10.1.5;4.1.5 Support Vector Machines kompakt erklärt;122
10.2;4.2 Regression via mathematischer Funktionen;125
10.3;4.3 Wahrscheinlichkeitsabschätzung der Klassenzugehörigkeit und logistische »Regression«;127
10.3.1;4.3.1 * Logistische Regression: Technische Details;131
10.4;4.4 Beispiel: Logistische Regression vs. Entscheidungsbaumverfahren;134
10.5;4.5 Nichtlineare Funktionen, Support Vector Machines und neuronale Netze;138
10.6;4.6 Zusammenfassung;141
11;Kapitel 5: Überanpassung erkennen und vermeiden;143
11.1;5.1 Verallgemeinerungsfähigkeit;143
11.2;5.2 Überanpassung;145
11.3;5.3 Überanpassung im Detail;146
11.3.1;5.3.1 Zurückgehaltene Daten und Fitfunktionen;146
11.3.2;5.3.2 Überanpassung bei Entscheidungsbaumverfahren;149
11.3.3;5.3.3 Überanpassung bei mathematischen Funktionen;151
11.4;5.4 Beispiel: Überanpassung linearer Funktionen;152
11.5;5.5 * Beispiel: Nachteile der Überanpassung;156
11.6;5.6 Von der Beurteilung durch Testdatenmengen zur Kreuzvalidierung;159
11.7;5.7 Abwanderungsdaten;163
11.8;5.8 Lernkurven;165
11.9;5.9 Überanpassung vermeiden und Steuerung der Komplexität;167
11.9.1;5.9.1 Überanpassung von Entscheidungsbäumen vermeiden;167
11.9.2;5.9.2 Eine allgemeine Methode zur Vermeidung von Überanpassung;168
11.9.3;5.9.3 * Überanpassung bei der Parameteroptimierung vermeiden;171
11.10;5.10 Zusammenfassung;175
12;Kapitel 6: Ähnlichkeit, Nachbarn und Cluster;177
12.1;6.1 Ähnlichkeit und Distanz;178
12.2;6.2 Nächste-Nachbarn-Methoden;181
12.2.1;6.2.1 Beispiel: Whisky-Analyse;181
12.2.2;6.2.2 Nächste Nachbarn und Vorhersagemodelle;184
12.2.3;6.2.3 Anzahl der Nachbarn und ihre Gewichtung;187
12.2.4;6.2.4 Geometrische Interpretation, Überanpassung und Steuerung der Komplexität;189
12.2.5;6.2.5 Probleme mit Nächste-Nachbarn-Methoden;193
12.3;6.3 Ähnlichkeit und Nachbarn: Wichtige technische Details;196
12.3.1;6.3.1 Heterogene Merkmale;196
12.3.2;6.3.2 * Weitere Distanzmaße;197
12.3.3;6.3.3 * Zusammenfassende Funktionen: Scores der Nachbarn berechnen;200
12.4;6.4 Clustering;202
12.4.1;6.4.1 Beispiel: Weitere Whisky-Analysen;203
12.4.2;6.4.2 Hierarchisches Clustering;204
12.4.3;6.4.3 Nächste Nachbarn: Clustering um Zentroiden;209
12.4.4;6.4.4 Beispiel: Clustering von Wirtschaftsnachrichten;214
12.4.5;6.4.5 Das Ergebnis des Clusterings verstehen;218
12.4.6;6.4.6 * Cluster-Beschreibungen durch überwachtes Lernen erzeugen;220
12.5;6.5 Lösen von geschäftlichen Aufgaben vs. Datenerkundung;223
12.6;6.6 Zusammenfassung;226
13;Kapitel 7: Entscheidungsanalyse I: Was ist ein gutes Modell?;227
13.1;7.1 Beurteilung von Klassifizierern;228
13.1.1;7.1.1 Korrektklassifizierungsrate und damit verbundene Probleme;229
13.1.2;7.1.2 Die Wahrheitsmatrix;230
13.1.3;7.1.3 Klassifizierungsaufgaben mit unausgewogener Klassenverteilung;230
13.1.4;7.1.4 Klassifizierungsaufgaben mit unausgewogenem Kosten-Nutzen-Verhältnis;233
13.2;7.2 Verallgemeinerung über Klassifizierungen hinaus;234
13.3;7.3 Ein wichtiges analytisches Tool: Der Erwartungswert;235
13.3.1;7.3.1 Erwartungswerte für Klassifizierer verwenden;236
13.3.2;7.3.2 Erwartungswerte zur Beurteilung von Klassifizierern verwenden;238
13.4;7.4 Beurteilung, Leistung und die Folgen für Investitionen in Daten;246
13.5;7.5 Zusammenfassung;249
14;Kapitel 8: Visualisierung der Leistung von Modellen;251
14.1;8.1 Rangfolge statt Klassifizierung;252
14.2;8.2 Profitkurven;254
14.3;8.3 ROC-Diagramme und -Kurven;257
14.4;8.4 Die Fläche unter der ROC-Kurve;263
14.5;8.5 Kumulative Reaktionskurven und Lift-Kurven;263
14.6;8.6 Beispiel: Leistungsanalyse;266
14.7;8.7 Zusammenfassung;275
15;Kapitel 9: Evidenz und Wahrscheinlichkeiten;277
15.1;9.1 Beispiel: Gezielte Kundenansprache durch Onlinewerbung;277
15.2;9.2 Evidenzen probabilistisch kombinieren;280
15.2.1;9.2.1 Verbundwahrscheinlichkeit und Unabhängigkeit;281
15.2.2;9.2.2 Der Satz von Bayes;282
15.3;9.3 Anwendung des Satzes von Bayes in der Data Science;284
15.3.1;9.3.1 Bedingte Unabhängigkeit und naive Bayes-Klassifizierung;286
15.3.2;9.3.2 Vor- und Nachteile des naiven Bayes-Klassifizierers;288
15.4;9.4 Ein Modell für den Lift der Evidenz;290
15.5;9.5 Beispiel: Lifts der Evidenz von Facebooks-Likes;291
15.5.1;9.5.1 Evidenz in Aktion: Gezielte Kundenansprache durch Werbung;293
15.6;9.6 Zusammenfassung;294
16;Kapitel 10: Texte repräsentieren und auswerten;295
16.1;10.1 Die Bedeutung von Text;296
16.2;10.2 Probleme bei der Auswertung von Text;297
16.3;10.3 Repräsentierung;298
16.3.1;10.3.1 Das Bag-of-words-Modell;298
16.3.2;10.3.2 Vorkommenshäufigkeiten;299
16.3.3;10.3.3 Inverse Dokumenthäufigkeit;302
16.3.4;10.3.4 Die Kombination aus Vorkommenshäufigkeit und inverser Dokumenthäufigkeit: TFIDF;303
16.4;10.4 Beispiel: Jazzmusiker;304
16.5;10.5 * Der Zusammenhang zwischen IDF und Entropie;308
16.6;10.6 Jenseits des Bag-of-words-Modells;310
16.6.1;10.6.1 N-Gramme;310
16.6.2;10.6.2 Eigennamenerkennung;311
16.6.3;10.6.3 Topic Models;312
16.7;10.7 Beispiel: Auswertung von Wirtschaftsnachrichten zwecks Vorhersage von Börsenkursen;313
16.7.1;10.7.1 Die Aufgabe;314
16.7.2;10.7.2 Die Daten;316
16.7.3;10.7.3 Datenvorverarbeitung;319
16.7.4;10.7.4 Ergebnisse;320
16.8;10.8 Zusammenfassung;324
17;Kapitel 11: Entscheidungsanalyse II: Analytisches Engineering;325
17.1;11.1 Auswahl geeigneter Empfänger eines Spendenaufrufs;326
17.1.1;11.1.1 Erwartungswerte: Zerlegung in Teilaufgaben und Kombination der Teilergebnisse;326
17.1.2;11.1.2 Ein kurzer Exkurs zum Thema Auswahleffekte;328
17.2;11.2 Eine noch ausgeklügeltere Vorhersage der Kundenabwanderung;329
17.2.1;11.2.1 Erwartungswerte: Strukturierung einer komplizierteren geschäftlichen Aufgabe;330
17.2.2;11.2.2 Den Einfluss des Anreizes beurteilen;331
17.2.3;11.2.3 Von der Zerlegung eines Erwartungswerts zur Data-Science-Lösung;333
17.3;11.3 Zusammenfassung;336
18;Kapitel 12: Weitere Verfahren und Methoden der Data Science;339
18.1;12.1 Gleichzeitiges Auftreten und Assoziationen: Zueinander passende Objekte finden;340
18.1.1;12.1.1 Unerwartetheit messen: Lift und Leverage;341
18.1.2;12.1.2 Beispiel: Bier und Lotterielose;342
18.1.3;12.1.3 Assoziationen von Facebook-Likes;343
18.2;12.2 Profiling: Typisches Verhalten erkennen;347
18.3;12.3 Verknüpfungsvorhersagen und Kontaktempfehlungen;352
18.4;12.4 Datenreduzierung, latente Informationen und Filmempfehlungen;354
18.5;12.5 Bias, Varianz und Ensemblemethoden;358
18.6;12.6 Datengestützte Kausalmodelle und ein Beispiel für virales Marketing;362
18.7;12.7 Zusammenfassung;363
19;Kapitel 13: Data Science und Geschäftsstrategie;365
19.1;13.1 Datenanalytische Denkweise;365
19.2;13.2 Durch Data Science Wettbewerbsvorteile erzielen;368
19.3;13.3 Durch Data Science erzielte Wettbewerbsvorteile bewahren;369
19.3.1;13.3.1 Vorteile durch historische Gegebenheiten;370
19.3.2;13.3.2 Einzigartiges geistiges Eigentum;370
19.3.3;13.3.3 Einzigartige immaterielle Werte;371
19.3.4;13.3.4 Überlegene Data Scientists;371
19.3.5;13.3.5 Überlegenes Data-Science-Management;373
19.4;13.4 Gewinnung und Förderung von Data Scientists und ihren Teams;375
19.5;13.5 Data-Science-Fallstudien;377
19.6;13.6 Kreative Ideen von beliebigen Quellen übernehmen;378
19.7;13.7 Beurteilung von Vorschlägen für Data-Science-Projekte;379
19.7.1;13.7.1 Beispiel für einen Data-Mining-Projektvorschlag;379
19.7.2;13.7.2 Mängel des Projektvorschlags von Big Red;380
19.8;13.8 Ausgereifte Data Science;382
20;Kapitel 14: Schlussfolgerungen;385
20.1;14.1 Die fundamentalen Konzepte der Data Science;385
20.1.1;14.1.1 Anwendung der fundamentalen Konzepte auf eine neue Aufgabe: Auswertung der Daten von Mobilgeräten;388
20.1.2;14.1.2 Eine neue Sichtweise auf die Lösung von geschäftlichen Aufgaben;391
20.2;14.2 Was Daten nicht leisten können: Der menschliche Faktor;392
20.3;14.3 Privatsphäre, Ethik und Auswertung der Daten von Einzelpersonen;396
20.4;14.4 Data Science: Steckt noch mehr dahinter?;397
20.5;14.5 Ein letztes Beispiel: Vom Crowd-Sourcing zum Cloud-Sourcing;398
20.6;14.6 Schlussworte;400
21;Anhang A: Leitfaden zur Beurteilung von Projektvorschlägen;401
21.1;A.1 Aufgaben- und Datenverständnis;401
21.2;A.2 Datenaufbereitung;402
21.3;A.3 Modellbildung;403
21.4;A.4 Beurteilung und Deployment;403
22;Anhang B: Ein weiteres Beispiel für einen Projektvorschlag;405
22.1;B.1 Szenario und Projektvorschlag;405
22.2;B.2 Mängel des Projektvorschlags von GGC;406
23;Glossar;409
24;Quellenverzeichnis;415
25;Stichwortverzeichnis;423
mehr

Autor

Foster Provost ist Professor an der New York University (NYU) Stern School of Business und lehrt u.a. Business Analytics und Data Science. In den letzten zehn Jahren hat Provost verschiedene erfolgreiche Unternehmen mitbegründet, die Data Science im Marketing einsetzen.

Tom Fawcett hat einen Doktortitel für Machine Learning und war mehr als zwei Jahrzehnte in verschiedenen Branchen wie GTE Laboratories, NYNEX/Verizon Labs, HP Labs in der Forschung und Entwicklung tätig. Die von ihm veröffentlichten Arbeiten zur Anwendung von Data Science (z.B. Erkennung von Betrugsfällen und Spamfilter) sind zu Standardwerken geworden.