Weighted Moving Average Minitab


Eine Reihe von wiederholbaren Schritten zum Ausführen einer bestimmten Art von Aufgabe mit Daten. Wie bei den Datenstrukturen lernen die Menschen, die Informatik studieren, verschiedene Algorithmen und ihre Eignung für verschiedene Aufgaben kennen. Spezifische Datenstrukturen spielen oft eine Rolle, wie bestimmte Algorithmen implementiert werden. Siehe auch Datenstruktur Eine Open-Source-JavaScript-Bibliothek, die von Google und der AngularJS-Community verwaltet wird, ermöglicht es Entwicklern, sogenannte Single Web Page Applikationen zu erstellen. AngularJS ist beliebt bei Daten-Wissenschaftler als eine Möglichkeit, die Ergebnisse ihrer Analyse zu zeigen. Siehe auch JavaScript. D3 Auch AI. Die Fähigkeit, Maschinen mit scheinbarer Intelligenz zu handeln, obwohl verschiedene Definitionen der Intelligenz zu einer Reihe von Bedeutungen für die künstliche Vielfalt führen. In AIs frühen Tagen in den 1960er Jahren suchten die Forscher allgemeine Prinzipien der Intelligenz zu implementieren, oft mit symbolischen Logik zu automatisieren Argumentation. Da die Kosten für Rechenressourcen sank, konzentrierte sich der Fokus mehr auf die statistische Analyse großer Datenmengen, um Entscheidungen zu treffen, die das Auftreten von Intelligenz vermitteln. Siehe auch maschinelles Lernen. Data Mining Auch Backprop. Ein Algorithmus zur iterativen Einstellung der in einem neuronalen Netzwerksystem verwendeten Gewichte. Backpropagation wird oft verwendet, um Gradientenabstieg zu implementieren. Siehe auch neuronales Netzwerk. Gradient Abstieg auch, Bayes Regel. Eine Gleichung zur Berechnung der Wahrscheinlichkeit, dass etwas wahr ist, wenn etwas, das damit in Zusammenhang steht, wahr ist. Wenn P (A) die Wahrscheinlichkeit ist, daß A wahr ist und P (AB) die Wahrscheinlichkeit ist, daß A wahr ist, wenn B wahr ist, dann sagt der Bayes-Satz, daß P (AB) (P (BA) P (A)) P ist (B). Dies ist nützlich für die Arbeit mit falschen Positiven zum Beispiel, wenn x von Menschen eine Krankheit haben, ist der Test für sie korrekt y der Zeit, und Sie testen positive, Bayes Theorem hilft, die Chancen, dass Sie tatsächlich die Krankheit zu berechnen. Das Theorem macht es auch einfacher, eine Wahrscheinlichkeit basierend auf neuen Daten zu aktualisieren, was es wertvoll in den vielen Anwendungen macht, wo die Daten weiter ansammeln. Benannt für den achtzehnten Jahrhundert englischen Statistiker und Presbyterian Minister Thomas Bayes. Siehe auch Bayesschen Netz. Vorherige Verteilung Auch Bayes net. Bayes-Netzwerke sind Graphen, die kompakt die Beziehung zwischen Zufallsvariablen für ein gegebenes Problem darstellen. Diese Graphen helfen bei der Durchführung von Argumentation oder Entscheidungsfindung angesichts der Unsicherheit. Diese Argumentation beruht stark auf der Bayes-Regel. Bourg Diese Netze werden in der Regel als Graphen dargestellt, in denen die Verknüpfung zwischen zwei beliebigen Knoten einem Wert zugeordnet wird, der die Wahrscheinlichkeitsbeziehung zwischen diesen Knoten darstellt. Siehe auch Bayes Theorem. Markov Chain Im maschinellen Lernen ist Bias eine Lerntendenz, konsequent das gleiche Falsche zu lernen. Varianz ist die Tendenz, zufällige Dinge unabhängig vom realen Signal zu lernen. Seine leicht zu vermeiden Überbeugung (Varianz) durch das Fallen in den entgegengesetzten Fehler der Unterausrüstung (Bias). Gleichzeitige Vermeidung von beiden erfordert das Erlernen einer perfekten Klassifizierer, und kurz zu wissen, es im Voraus gibt es keine einzige Technik, die immer am besten (kein freies Mittagessen). Domingos Siehe auch Varianz. Überformung. Klassifizierung Da dies eine populäre Marketing-Buzz-Phrase geworden ist, haben sich Definitionen vermehrt, aber im Allgemeinen bezieht sie sich auf die Fähigkeit, mit Sammlungen von Daten zu arbeiten, die vorher aufgrund ihres Volumens, ihrer Geschwindigkeit und ihrer Vielfalt (die drei Vs) unpraktisch gewesen waren. Ein wichtiger Treiber für diese neue Fähigkeit ist die leichtere Verteilung von Speicher und Verarbeitung in Netzwerken von kostengünstigen Rohstoff-Hardware unter Verwendung von Technologien wie Hadoop, anstatt größere, leistungsfähigere Einzelcomputer zu erfordern. Die Arbeit, die mit diesen großen Datenmengen geleistet wird, basiert oft auf datenwissenschaftlichen Fertigkeiten. Eine Verteilung der Ergebnisse unabhängiger Ereignisse mit zwei sich gegenseitig ausschließenden möglichen Ergebnissen, einer festen Anzahl von Versuchen und einer konstanten Erfolgswahrscheinlichkeit. Dies ist eine diskrete Wahrscheinlichkeitsverteilung, im Gegensatz zu kontinuierlich zum Beispiel, anstatt sie mit einer Linie zu graphisieren, würden Sie ein Histogramm verwenden, da die potenziellen Ergebnisse ein diskreter Satz von Werten sind. Wenn die Anzahl der durch eine Binomialverteilung repräsentierten Versuche steigt, werden die Histogrammbalken, wenn die Erfolgswahrscheinlichkeit konstant bleibt, dünner, und sie sieht mehr und mehr wie ein Graph der Normalverteilung aus. Siehe auch Wahrscheinlichkeitsverteilung. Diskrete Variable. Histogramm. Normalverteilung Chi (ausgesprochen wie pie, aber beginnend mit einem k) ist ein griechischer Buchstabe, und Chi-Quadrat ist eine statistische Methode, die verwendet wird, um zu testen, ob die Klassifizierung von Daten dem Zufall oder einem zugrundeliegenden Gesetz zugeschrieben werden kann. Webster Der Chi-Quadrat-Test ist eine Analyse-Technik verwendet, um zu schätzen, ob zwei Variablen in einer Kreuztabelle sind korreliert. Shin Eine Chi-Quadrat-Verteilung variiert von der Normalverteilung, basierend auf den Freiheitsgraden, die verwendet werden, um sie zu berechnen. Siehe auch Normalverteilung und Wikipedia auf dem Chi-Quadrat-Test und auf Chi-Quadrat-Verteilung. Die Identifikation, welcher von zwei oder mehr Kategorien ein Element fällt unter eine klassische Maschine Lernaufgabe. Entscheiden, ob eine E-Mail-Nachricht ist Spam oder nicht klassifiziert sie zwischen zwei Kategorien, und die Analyse von Daten über Filme könnte dazu führen, dass die Klassifizierung von ihnen unter mehreren Genres. Siehe auch betreutes Lernen. Clustering Jeder nicht beaufsichtigte Algorithmus für die Aufteilung von Dateninstanzen in Gruppen nicht eine vorbestimmte Gruppe von Gruppen, die diese Klassifizierung machen würde, sondern Gruppen, die durch die Ausführung des Algorithmus aufgrund der Ähnlichkeiten identifiziert wurden, die es unter den Instanzen gefunden. Die Mitte jedes Clusters ist durch den ausgezeichneten Namensschwerpunkt bekannt. Siehe auch Klassifizierung. überwachtes Lernen. Unüberwachtes Lernen. K-means clustering Eine Zahl oder ein algebraisches Symbol, das als Multiplikator einer variablen oder unbekannten Größe vorangestellt ist (Beispiel x in x (yz) 6 in 6ab-Webstern Bei der grafischen Darstellung einer Gleichung wie y 3x 4. bestimmt der Koeffizient von x die Zeilen Englisch: www. tab. fzk. de/en/projekt/zusammenf...ng/ab117.htm Die Diskussionen der Statistik erwähnen spezifische Koeffizienten für spezifische Aufgaben wie den Korrelationskoeffizienten, den Cramers - Koeffizienten und den Gini - Koeffizienten ZB Englisch oder Mandarin), um sie in strukturierte Daten zu konvertieren, die Sie verwenden können, um die Programmlogik zu steuern Frühe Anstrengungen, die auf das Übersetzen einer Sprache in eine andere oder das Akzeptieren von kompletten Sätzen als Abfragen auf Datenbanken gerichtet sind Moderne Bemühungen analysieren oft Dokumente und andere Daten, Tweets), um potentiell wertvolle Informationen zu extrahieren Siehe auch GATE UIMA Ein Bereich, der um eine Schätzung angegeben ist, um die Fehlergrenze anzuzeigen, verbunden mit einer Wahrscheinlichkeit, dass ein Wert in diesen Bereich fällt. Das Feld der Statistik bietet spezifische mathematische Formeln, um Konfidenzintervalle zu berechnen. Eine Variable, deren Wert eine beliebige unendliche Anzahl von Werten sein kann, typischerweise innerhalb eines bestimmten Bereichs. Zum Beispiel, wenn Sie Alter oder Größe mit einer Dezimalzahl ausdrücken können, dann sind sie kontinuierliche Variablen. In einem Diagramm wird der Wert einer kontinuierlichen Variablen gewöhnlich als eine durch eine Funktion aufgezeichnete Linie ausgedrückt. Vergleich der diskreten Variablen Der Grad der relativen Korrespondenz, wie zwischen zwei Sätzen von Daten. Webster Wenn der Umsatz steigt, wenn das Werbebudget steigt, korrelieren sie. Der Korrelationskoeffizient ist ein Maß dafür, wie eng die beiden Datensätze korrelieren. Ein Korrelationskoeffizient von 1 ist eine perfekte Korrelation. 9 ist eine starke Korrelation, und 2 ist eine schwache Korrelation. Dieser Wert kann auch negativ sein, wie wenn die Inzidenz einer Krankheit sinkt, wenn Impfungen steigen. Ein Korrelationskoeffizient von -1 ist eine perfekte negative Korrelation. Denken Sie jedoch immer daran, dass Korrelation nicht Verursachung impliziert. Siehe auch Koeffizient Ein Maß für die Beziehung zwischen zwei Variablen, deren Werte zugleich genau beobachtet werden, wobei der Mittelwert der beiden Variablen durch das Produkt ihrer Durchschnittswerte vermindert ist. Wenn die Varianz misst, wie eine einzelne Variable von ihrem Mittel abweicht, bestimmt die Kovarianz, wie zwei Variablen im Tandem von ihren Mitteln verschieden sind. Grus Siehe auch Varianz. Mittel Bei der Verwendung von Daten mit einem Algorithmus, der Name, der einem Satz von Techniken gegeben wird, die Daten in Trainingssets und Testsets aufteilen. Das Trainingsset wird dem Algorithmus zusammen mit den richtigen Antworten gegeben. Und wird der Satz verwendet, um Vorhersagen zu machen. Der Algorithmus wird dann gebeten, Vorhersagen für jedes Element in dem Testset vorzunehmen. Die Antworten, die es gibt, werden mit den korrekten Antworten verglichen, und eine Gesamtbewertung für wie gut der Algorithmus berechnet wurde. Segaran Siehe auch Maschinelles Lernen Data-Driven Documents. Eine JavaScript-Bibliothek, die das Erstellen von interaktiven Visualisierungen erleichtert, die in Webseiten eingebettet sind. D3 ist beliebt bei Daten-Wissenschaftler als eine Möglichkeit, die Ergebnisse ihrer Analyse zu präsentieren. Siehe auch AngularJS. JavaScript Ein Spezialist für Daten wrangling. Daten-Ingenieure sind diejenigen, die die chaotischen Daten zu nehmen. Und die Infrastruktur für eine echte, konkrete Analyse aufzubauen. Sie betreiben ETL-Software, heiraten Datensätze, bereichern und reinigen alle Daten, die Unternehmen seit Jahren gespeichert haben. Biewald Siehe auch Daten wrangling. (Eine Wikipedia-Suche nach Datentechnik leitet Informationstechniken um, ein älterer Begriff, der einen unternehmensorientierteren Arbeitsplatz mit größerer Systemarchitekturverantwortung und weniger Hands-on-Arbeit mit den Daten beschreibt.) Im Allgemeinen die Verwendung von Computern zur Analyse großer Datensätze Um nach Mustern zu suchen, die Menschen Entscheidungen treffen. Während dies klingt wie viel von dem, was Daten-Wissenschaft geht, ist die populäre Verwendung des Begriffs viel älter, zumindest aus den 1990er Jahren. Siehe auch Data Science Die Fähigkeit, Wissen und Erkenntnisse aus großen und komplexen Datensätzen zu extrahieren. Patil Data science Arbeit erfordert oft Kenntnisse der Statistik und Software-Engineering. Siehe auch Data Engineer. Maschinelles Lernen Eine bestimmte Anordnung von Dateneinheiten, wie beispielsweise einem Array oder einem Baum. Menschen, die Informatik studieren, lernen über unterschiedliche Datenstrukturen und ihre Eignung für verschiedene Aufgaben. Siehe auch Algorithmus Auch Daten munging. Die Umwandlung von Daten, oft durch den Einsatz von Skriptsprachen, erleichtert die Arbeit. Wenn Sie 900.000 Geburtsjahr-Werte des Formats yyyy-mm-dd und 100.000 des Formats mmddyyyy haben und Sie ein Perl-Skript schreiben, um das letztere zu konvertieren, um so aussehen wie das ehemalige, so dass Sie sie alle zusammen verwenden können, tun Sie Daten wrangling. Diskussionen der Datenwissenschaft oft beklagen den hohen Prozentsatz der Zeit, dass die Praktizierenden verbringen müssen Daten wrangling die Diskussionen dann empfehlen die Einstellung von Daten-Ingenieure zu diesem Thema. Siehe auch Perl. Python. Schale. Daten-Ingenieur Ein Entscheidungsbaum verwendet eine Baumstruktur, um eine Anzahl möglicher Entscheidungswege und ein Ergebnis für jeden Pfad darzustellen. Wenn Sie jemals das Spiel Zwanzig Fragen gespielt haben, dann stellt sich heraus, dass Sie mit Entscheidungsbäumen vertraut sind. Grus Siehe auch random forest Typischerweise ein Multi-Level-Algorithmus, der allmählich Dinge auf höheren Ebenen der Abstraktion identifiziert. Zum Beispiel kann die erste Ebene bestimmte Linien identifizieren, dann identifiziert die nächste Ebene Kombinationen von Linien als Formen und dann identifiziert die nächste Ebene Kombinationen von Formen als spezifische Objekte. Wie Sie vielleicht aus diesem Beispiel zu erraten, ist tiefes Lernen für Bildklassifikation beliebt. Siehe auch neuronales Netzwerk Der Wert eines abhängigen Wertes hängt vom Wert der unabhängigen Variablen ab. Wenn youre Messung der Wirkung der verschiedenen Größen eines Werbebudgets auf den Gesamtumsatz, dann die Werbebudget Abbildung ist die unabhängige Variable und der Gesamtumsatz ist die abhängige Variable. Auch Dimensionalitätsreduktion. Wir können eine Technik namens Hauptkomponentenanalyse verwenden, um eine oder mehrere Dimensionen zu extrahieren, die möglichst viel von der Variation der Daten erfassen. Dimensionality Reduction ist vor allem nützlich, wenn Ihr Datensatz hat eine große Anzahl von Dimensionen und Sie wollen eine kleine Teilmenge, die den größten Teil der Abweichung erfasst zu finden. Grus Lineare Algebra kann im Großen genommen beteiligt werden, ist die lineare Algebra über das Übersetzen von etwas, das sich in einem m-dimensionalen Raum befindet, in eine entsprechende Form in einem n-dimensionalen Raum. Shin Siehe auch lineare Algebra Eine Variable, deren Potentialwerte eine von einer bestimmten Anzahl von Werten sein müssen. Wenn jemand einen Film mit zwischen einem und fünf Sternen bewertet, wobei keine teilweisen Sterne erlaubt sind, ist die Bewertung eine diskrete Variable. In einem Diagramm wird die Verteilung der Werte für eine diskrete Variable üblicherweise als Histogramm ausgedrückt. Siehe auch stetige Variable. Histogramm Die Verwendung von mathematischen und statistischen Methoden im Bereich der Ökonomie zu überprüfen und zu entwickeln, wirtschaftliche Theorien Webster Die Maschine Lernen Ausdruck für ein Stück messbare Informationen über etwas. Wenn Sie das Alter, das jährliche Einkommen und das Gewicht eines Satzes von Leuten speichern, speichern Sie drei Eigenschaften über sie. In anderen Bereichen der IT-Welt, können die Menschen die Begriffe Eigenschaft, Attribut oder Feld statt Feature verwenden. Siehe auch Feature Engineering Um ein gutes Modell zu erhalten, erfordert jedoch oft mehr Aufwand und Iteration und einen Prozess namens Feature Engineering. Merkmale sind die Modelleingänge. Sie können grundlegende rohe Daten, die Sie gesammelt haben, wie Auftragsmenge, einfache abgeleitete Variablen, wie zB Auftragsdatum an einem Wochenende YesNo, sowie komplexere abstrakte Features, wie die Ähnlichkeit zwischen zwei Filmen. Thinking-up-Funktionen ist ebenso eine Kunst wie eine Wissenschaft und kann auf Domain-Wissen verlassen. Anderson Siehe auch Feature General Architecture for Text Engineering, ein Open-Source-, Java-basiertes Framework für natürliche Sprachverarbeitungsaufgaben. Das Framework ermöglicht es Ihnen, andere Werkzeuge, die entworfen, um es angeschlossen werden Pipeline. Das Projekt basiert auf der UKs University of Sheffield. Siehe auch Computerlinguistik. UIMA Gradient Boosting ist eine maschinelle Lernmethode für Regressions - und Klassifikationsprobleme, die ein Vorhersagemodell in Form eines Ensembles von schwachen Vorhersagemodellen, typischerweise Entscheidungsbäumen, erzeugt. Sie baut das Modell stufenweise wie andere Boosting-Methoden auf und verallgemeinert sie, indem sie die Optimierung einer beliebigen differenzierbaren Verlustfunktion ermöglicht. Wikipediagb Ein Optimierungsalgorithmus zum Finden der Eingabe einer Funktion, die den größten (oder kleinsten) möglichen Wert erzeugt. Ein Ansatz zur Maximierung einer Funktion ist es, einen zufälligen Startpunkt zu wählen, den Gradienten zu berechnen, einen kleinen Schritt in Richtung des Gradienten zu machen (d. h. die Richtung, die bewirkt, dass die Funktion am stärksten ansteigt) und mit dem neuen Startpunkt wiederholen. Ebenso können Sie versuchen, eine Funktion durch kleine Schritte in die entgegengesetzte Richtung zu minimieren. Grus Siehe auch backpropagation Eine Skriptsprache (keine Relation zu Java), die ursprünglich Mitte der neunziger Jahre für die Einbettung von Logik in Webseiten entworfen wurde, die sich später zu einer allgemeineren Entwicklungssprache entwickelte. JavaScript ist nach wie vor sehr beliebt für die Einbettung Logik in Web-Seiten, mit vielen Bibliotheken zur Verfügung, um die Bedienung und visuelle Darstellung dieser Seiten zu verbessern. Siehe auch AngularJS. D3 Ein Data Mining-Algorithmus zur Cluster-, Klassifizie - rung oder Gruppierung von N Objekten auf Basis ihrer Attribute oder Features in K Anzahl der Gruppen (sogenannte Cluster). Parsian Siehe auch: clustering Auch kNN. Ein Maschinelles Lernen Algorithmus, dass die Dinge auf der Grundlage ihrer Ähnlichkeit zu benachbarten Nachbarn zu klassifizieren. Sie stimmen die Algorithmen Ausführung durch die Auswahl, wie viele Nachbarn zu untersuchen (k) sowie einige Begriff der Distanz, um anzuzeigen, wie nahe die Nachbarn sind. Zum Beispiel könnte in einem sozialen Netzwerk, ein Freund Ihres Freundes könnte zweimal die Entfernung von Ihnen als Ihr Freund betrachtet werden. Ähnlichkeit wäre der Vergleich von Merkmalswerten in den Nachbarn, die verglichen werden. Siehe auch Klassifizierung. Merkmal In der Statistik sind latente Variablen (vom lateinischen: present partiple of lateo (lie hidden) im Gegensatz zu beobachtbaren Variablen) Variablen, die nicht direkt beobachtet werden, sondern eher durch ein mathematisches Modell aus anderen beobachteten Variablen abgeleitet werden Direkt gemessen). Mathematische Modelle, die darauf abzielen, beobachtete Variablen in Form von latenten Variablen zu erklären, werden als latent variable Modelle bezeichnet. Wikipedialv Lift vergleicht die Häufigkeit eines beobachteten Musters mit wie oft Sie erwarten, dass Muster nur zufällig zu sehen. Wenn der Aufzug nahe 1 ist, dann theres eine gute Wahrscheinlichkeit, dass das Muster, das Sie beobachteten, gerade durch Zufall auftritt. Je größer der Lift, desto wahrscheinlicher ist das Muster real. Zumel Ein Zweig der Mathematik, der sich mit Vektorräumen und Operationen wie Addition und Multiplikation beschäftigt. Lineare Algebra ist entworfen, um Systeme von linearen Gleichungen darzustellen. Lineare Gleichungen sind so ausgelegt, dass sie lineare Beziehungen darstellen, wobei eine Entität als eine Summe von Vielfachen von anderen Entitäten geschrieben wird. In der Abkürzung der linearen Algebra wird eine lineare Beziehung als lineare Operatormatrix dargestellt. Zheng Siehe auch Vektor. Vektorraum. Matrix. Koeffizient Eine Technik, die nach einer linearen Beziehung sucht (dh eine, bei der die Beziehung zwischen zwei variierenden Mengen, wie etwa Preis und Umsatz, mit einer Gleichung ausgedrückt werden kann, die Sie als gerade Linie in einem Diagramm darstellen können), indem man mit a beginnt Satz von Datenpunkten, die nicht unbedingt gut aufeinander abgestimmt sind. Dies geschieht durch Berechnung der Zeile der kleinsten Quadrate: diejenige, die auf einem x-y-Diagramm die kleinstmögliche Summe quadratischer Abstände zu den tatsächlichen Datenpunkt-y-Werten aufweist. Statistische Softwarepakete bieten hierfür automatisierte Möglichkeiten. Siehe auch Regression. Logistische Regression Wenn y 10 x. Dann log (y) x. Die Arbeit mit dem Protokoll einer oder mehrerer Modellvariablen anstelle der ursprünglichen Werte erleichtert die Modellierung von Beziehungen mit linearen Funktionen anstelle von nichtlinearen. Lineare Funktionen sind in der Datenanalyse typischerweise einfacher zu verwenden. (Das angezeigte log (y) x-Beispiel ist für die Log-Basis 10. Natürliche Logarithmen oder Log-Basis e, wobei e eine spezifische irrationale Zahl von etwas über 2.7 ist, sind etwas komplizierter, aber auch sehr nützlich für verwandte Aufgaben Variable. Lineare Regression Ein Modell ähnlich der linearen Regression, aber wo die potenziellen Ergebnisse sind eine bestimmte Gruppe von Kategorien anstatt kontinuierlich. Siehe kontinuierliche Variable. Regression. Lineare Regression Die Verwendung von datengetriebenen Algorithmen, die besser funktionieren, da sie mehr Daten haben, um mit diesen zusätzlichen Daten zu arbeiten, zu lernen (dh ihre Modelle zu verfeinern). Dies beinhaltet oft eine Cross-Validierung mit Trainings - und Testdatensätzen. Das grundlegende Ziel des maschinellen Lernens ist es, über die Beispiele im Trainingsset zu verallgemeinern. Domingos Das Studium der praktischen Anwendung des maschinellen Lernens bedeutet in der Regel, welche maschinellen Lernalgorithmen für welche Situationen am besten geeignet sind. Siehe auch Algorithmus. Cross-Validierung. Künstliche Intelligenz Ein Algorithmus für die Arbeit mit einer Reihe von Ereignissen (z. B. ein System, das insbesondere Zustände ist), um die Möglichkeit eines bestimmten Ereignisses vorherzusagen, auf dessen Grundlage andere Ereignisse eingetreten sind. Die Identifizierung von probabilistischen Beziehungen zwischen den verschiedenen Ereignissen bedeutet, dass Markov-Ketten und Bayes-Netzwerke oft in denselben Diskussionen auftauchen. Siehe auch Bayesschen Netz. Monte Carlo-Methode Eine kommerzielle Computersprache und Umgebung für die Visualisierung und Algorithmenentwicklung beliebt. (Plural: Matrizen) Ein älteres Websters-Wörterbuch mit einer stärkeren Betonung der typografischen Repräsentation gibt die mathematische Definition als eine Menge von Zahlen oder Ausdrücken an, die in Zeilen und Spalten zwischen Klammern oder Doppellinien-Webseiten angeordnet sind. Für die Zwecke der Manipulation einer Matrix mit Software, denken Sie daran, wie ein zweidimensionales Array. Diese mathematische Darstellung des zweidimensionalen Arrays macht es wie mit seinem eindimensionalen Äquivalent, einem Vektor, einfacher, die Vorteile von Softwarebibliotheken zu nutzen, die erweiterte mathematische Operationen auf die datenbasierten Bibliotheken anwenden, die die Verarbeitung auf mehrere Prozessoren zur Skalierbarkeit verteilen können. Siehe auch Vektor. Lineare Algebra Der Mittelwert, obwohl technisch das als arithmetisches Mittel bekannt ist. (Andere Mittel umfassen die geometrischen und harmonischen Mittel.) Siehe auch Median. Modus Mittlerer Absolutfehler Mittlerer Fehler Fehler Auch MSE. Der Mittelwert der Quadrate aller gefundenen Fehler beim Vergleich der vorhergesagten Werte mit den beobachteten Werten. Squaring sie macht die größeren Fehler zählen für mehr, was Mean Squared Error beliebter als Mean Absolute Error bei der Quantifizierung der Erfolg einer Reihe von Vorhersagen. Siehe auch Mean Absolute Error. Root Mean Squared Error Wenn Werte sortiert werden, der Wert in der Mitte oder der Durchschnitt der beiden in der Mitte, wenn es eine gerade Anzahl von Werten gibt. Siehe auch mean. Mode Der Wert, der am häufigsten in einer Datenprobe auftritt. Wie der Median, kann der Modus nicht direkt berechnet werden Stanton, obwohl seine leicht genug, mit ein wenig Scripting zu finden. Für Personen, die mit Statistik arbeiten, kann mode auch Datentyps bedeuten, ob ein Wert eine Ganzzahl, eine reelle Zahl oder ein Datum ist. Siehe auch mean. Median. Scripting Eine Spezifikation einer mathematischen (oder probabilistischen) Beziehung, die zwischen verschiedenen Variablen existiert. Grus Weil Modellierung kann so viele Dinge bedeuten, wird der Begriff statistische Modellierung oft verwendet, um genauer zu beschreiben, die Art der Modellierung, dass Datenwissenschaftler tun. Monte Carlo-Methode Im Allgemeinen ist die Verwendung von zufällig generierten Zahlen als Teil eines Algorithmus. Seine Verwendung mit Markov Ketten ist so beliebt, dass die Menschen in der Regel beziehen sich auf die Kombination mit dem Akronym MCMC. Siehe auch Markov-Kette Der mittlere (oder Durchschnitt) von Zeitreihendaten (gleichzeitige Beobachtung von Beobachtungen wie pro Stunde oder pro Tag) aus mehreren aufeinanderfolgenden Zeiträumen wird als gleitender Durchschnitt bezeichnet. Sie wird als Verschieben bezeichnet, weil der Durchschnitt kontinuierlich neu berechnet wird, wenn neue Zeitreihendaten verfügbar werden, und er schreitet fort, indem er den frühesten Wert fällt und die neueste addiert. Parsisch Siehe auch mean. Zeitreihendaten Die Analyse von Sequenzen von n Elementen (typischerweise Wörter in natürlicher Sprache), um nach Mustern zu suchen. Beispielsweise untersucht die Trigrammanalyse drei Wortphrasen in der Eingabe, um nach Mustern zu suchen, wie etwa die Wörterpaare, die am häufigsten in den drei Gruppen erscheinen. Der Wert von n kann etwas anderes als drei sein, je nach Ihren Bedürfnissen. Dies hilft, statistische Modelle von Dokumenten (zum Beispiel bei der automatischen Klassifizierung) zu erstellen und positive oder negative Begriffe zu finden, die mit einem Produktnamen verknüpft sind. Siehe auch Computerlinguistik. Klassifikation naive Bayes Klassifikator Eine Sammlung von Klassifikationsalgorithmen basierend auf Bayes Theorem. Es handelt sich nicht um einen einzigen Algorithmus, sondern um eine Familie von Algorithmen, die alle ein gemeinsames Prinzip haben, dass jedes Merkmal unabhängig von dem Wert eines anderen Merkmals ist. So zum Beispiel kann eine Frucht betrachtet werden, ein Apfel zu sein, wenn er rot, rund und ungefähr 3 im Durchmesser ist. Ein Naive-Bayes-Klassierer betrachtet jede dieser Merkmale (rot, rund, 3 im Durchmesser), um unabhängig zu der Wahrscheinlichkeit beizutragen, dass die Frucht ein Apfel ist, unabhängig von jeglichen Korrelationen zwischen den Merkmalen. Merkmale, jedoch, arent immer unabhängig, die oft als ein Mangel des Naive Bayes Algorithmus gesehen und dies ist, warum seine etikettiert naiv. Aylien Dieses Naivet macht es viel einfacher, Implementierungen dieser Algorithmen zu entwickeln, die so weit kommen. Siehe auch Bayes Theorem. Klassifizierung Auch neuronales Netz oder künstliches neuronales Netzwerk, um es vom Gehirn zu unterscheiden, auf denen dieser Algorithmus modelliert wird. Eine robuste Funktion, die einen beliebigen Satz von Eingaben aufnimmt und zu einem beliebigen Satz von Ausgängen passt, die binär sind. In der Praxis werden Neuronale Netze in der Tiefenforschung eingesetzt, um Bilder auf Funktionen und vieles mehr abzustimmen. Was Neural Networks besonders macht, ist die Verwendung einer verborgenen Schicht gewichteter Funktionen namens Neuronen, mit denen Sie effektiv ein Netzwerk aufbauen können, das viele andere Funktionen abbildet. Ohne eine verborgene Schicht von Funktionen, Neuronale Netze wäre nur eine Reihe von einfachen gewichteten Funktionen. Kirk Siehe auch tiefes Lernen. Rückverbreitung. Perceptron Auch Gaußsche Verteilung. (Carl Friedrich Gauss war ein deutscher Mathematiker des frühen 19. Jahrhunderts.) Eine Wahrscheinlichkeitsverteilung, die beim Graphen eine symmetrische Glockenkurve mit dem Mittelwert in der Mitte ist. Der Standardabweichungswert wirkt sich auf die Höhe und Breite des Graphen aus. Siehe auch mean. Wahrscheinlichkeitsverteilung. Standardabweichung. Binomialverteilung. Standard-Normalverteilung Ein Datenbankverwaltungssystem, das eine von mehreren Alternativen zum relationalen, tabellenorientierten Modell verwendet, das von SQL-Datenbanken verwendet wird. Während dieser Begriff ursprünglich bedeutete nicht SQL, es ist gekommen, um etwas näher an nicht nur SQL bedeuten, weil die spezialisierte Art der NoSQL-Datenbank-Management-Systeme oft haben sie spielen spezifische Rollen in einem größeren System, das auch SQL und zusätzliche NoSQL-Systeme. Siehe auch SQL Wenn Ihr vorgeschlagenes Modell für einen Datensatz sagt, dass der Wert von x den Wert von y beeinflusst. Dann die Nullhypothesisthe Modell, das youre, das Ihr vorgeschlagenes Modell mit prüft, ob x wirklich y beeinflußt, sagt, daß die Beobachtungen alle auf Zufall basieren und daß es keine Wirkung gibt. Je kleiner der aus den Probendaten berechnete P-Wert ist, desto stärker ist der Beweis gegen die Nullhypothese. Shin Siehe auch P-Wert Wenn Sie möglichst viel (oder so wenig) von etwas wie möglich bekommen möchten, und die Art und Weise, wie Sie es bekommen, ist, indem Sie die Werte anderer Größen ändern, haben Sie ein Optimierungsproblem. Um ein Optimierungsproblem zu lösen, müssen Sie Ihre Entscheidungsvariablen, Einschränkungen und die Dinge kombinieren, die Sie zusammen in eine Zielfunktion maximieren möchten. Das Ziel ist die Sache, die Sie maximieren oder minimieren möchten, und Sie verwenden die Zielfunktion, um das optimale Ergebnis zu finden. Milton Siehe auch gradient descent Extreme Werte, die Fehler bei der Messung und Aufzeichnung sein könnten, oder könnten genaue Berichte von seltenen Ereignissen sein. Downey Siehe auch Overfitting Ein Modell der Trainingsdaten, das durch die Berücksichtigung von zu vielen Datenquellen und Ausreißern zu kompliziert und nicht so sinnvoll ist, wie es sein könnte, Muster in Testdaten zu finden. Siehe auch Ausreisser. Kreuz-Validierung Auch p-Wert. Die Wahrscheinlichkeit, unter der Annahme keiner Wirkung oder keiner Differenz (der Nullhypothese), ein Resultat zu erhalten, das gleich oder größer ist als das, was tatsächlich beobachtet wurde. Goodman Sein ein Maß von, wie überrascht Sie sein sollten, wenn es keinen tatsächlichen Unterschied zwischen den Gruppen gibt, aber Sie erhielten Daten, die dort vorschlagen. Ein größerer Unterschied, oder ein gesichert durch mehr Daten, deutet mehr Überraschung und einen kleineren p-Wert. Der p-Wert ist ein Maß der Überraschung, nicht ein Maß für die Größe der Wirkung. Reinhart Ein niedrigerer p-Wert bedeutet, dass Ihre Ergebnisse statistisch signifikanter sind. Siehe auch Nullhypothese Ein Algorithmus, der die Wichtigkeit von etwas bestimmt, typischerweise, um es in einer Liste von Suchergebnissen zu ordnen. PageRank arbeitet durch die Zählung der Anzahl und Qualität der Links zu einer Seite zu bestimmen, eine grobe Schätzung, wie wichtig die Website ist. Die zugrunde liegende Annahme ist, dass wichtigere Websites wahrscheinlich mehr Links von anderen Websites erhalten werden. Googlearchive PageRank ist nicht für die Seiten, die es rangiert, sondern für seinen Erfinder, Google-Mitbegründer und CEO Larry Page benannt. Eine Python-Bibliothek für Datenmanipulation beliebt bei Daten-Wissenschaftler. Siehe auch Python Fast das einfachste neuronale Netzwerk ist das Perzeptron, das ein einzelnes Neuron mit n binären Eingängen approximiert. Er berechnet eine gewichtete Summe seiner Eingaben und Brände, wenn die gewichtete Summe null oder größer ist. Grus Siehe auch neuronales Netzwerk Eine ältere Skriptsprache mit Wurzeln in Pre-Linux-UNIX-Systemen. Perl ist seit jeher beliebt für die Textverarbeitung, insbesondere für Datenbereinigungs - und Erweiterungsaufgaben. Siehe auch Scripting. Daten wrangling Pivot-Tabellen schnell zusammenfassen lange Listen von Daten, ohne dass Sie eine einzige Formel schreiben oder kopieren Sie eine einzelne Zelle. Aber das wichtigste Merkmal der Pivot-Tabellen ist, dass Sie sie dynamisch anordnen können. Angenommen, Sie erstellen eine Pivot-Tabellenzusammenfassung mit Rohzählungsdaten. Mit dem Ziehen einer Maus können Sie die Pivot-Tabelle einfach neu anordnen, so dass sie die Daten basierend auf Geschlecht oder Altersgruppen oder geographischen Standort zusammenfasst. Der Prozess der Umstellung Ihrer Tabelle ist bekannt als Verschieben Ihrer Daten: Sie drehen die gleichen Informationen herum, um es aus verschiedenen Blickwinkeln zu untersuchen. Macdonald Eine Verteilung von unabhängigen Ereignissen, in der Regel über einen Zeitraum von Zeit oder Raum, um die Wahrscheinlichkeit eines Ereignisses vorherzusagen. Wie die Binomialverteilung ist dies eine diskrete Verteilung. Benannt für den französischen Mathematiker Simon Denis Poisson des frühen 19. Jahrhunderts. Siehe auch spatiotemporale Daten. Diskrete Variable. Binomialverteilung Die Analyse von Daten, um zukünftige Ereignisse vorherzusagen, in der Regel zur Unterstützung der Unternehmensplanung. Dies beinhaltet prädiktive Modellierung und andere Techniken. Das maschinelle Lernen kann als ein Satz von Algorithmen betrachtet werden, die dazu beitragen, prädiktive Analytik zu implementieren. Der mehr geschäftsorientierte Spin der prädiktiven Analytik macht ihn zu einem beliebten Schlagwort in der Marketing-Literatur. Siehe auch Vorhersagemodellierung. Maschinelles lernen. SPSS-Hauptkomponentenanalyse Dieser Algorithmus betrachtet einfach die Richtung mit der größten Varianz und bestimmt dann die erste Hauptkomponente. Dies ist sehr ähnlich, wie Regression arbeitet, dass es bestimmt die beste Richtung, um Daten zu. Kirk Siehe auch Regression In der Bayesschen Schlussfolgerung gehen wir davon aus, dass die unbekannte Menge, die geschätzt werden soll, viele plausible Werte aufweist, die durch eine vorherige Verteilung modelliert werden. Die Bayessche Folgerung verwendet dann Daten (die als unverändert betrachtet werden), um eine engere hintere Verteilung für die unbekannte Größe zu bilden. Zumel Siehe auch Bayes Theorem Eine Wahrscheinlichkeitsverteilung für eine diskrete Zufallsvariable ist eine Auflistung aller möglichen deutlichen Ergebnisse und ihrer Wahrscheinlichkeit des Auftretens. Da alle möglichen Ergebnisse aufgelistet sind, muss die Summe der Wahrscheinlichkeiten 1,0 addieren. Levine Siehe auch diskrete Variable Eine seit 1994 verfügbare Programmiersprache, die bei Menschen mit Datenwissenschaften beliebt ist. Python ist für Benutzerfreundlichkeit bei Anfängern und große Macht, wenn von fortgeschrittenen Benutzern, vor allem bei der Nutzung von spezialisierten Bibliotheken wie diejenigen, die für das maschinelle Lernen und Grafik-Generierung. Siehe auch Scripting. Pandas Wenn Sie einen Satz von sortierten Werten in Gruppen teilen, die jeweils die gleiche Anzahl von Werten haben (z. B. wenn Sie die Werte in zwei Gruppen am Median teilen), wird jede Gruppe als Quantil bezeichnet. Wenn es vier Gruppen gibt, nennen wir sie Quartile, was ein gängiger Weg ist, Werte für Diskussions - und Analysezwecke aufzuteilen, wenn es fünf sind, nennen wir Quintile und so weiter. Siehe auch median Eine Open-Source-Programmiersprache und - umgebung für statistische Berechnungen und Graphgenerierung für Linux, Windows und Mac. Ein Algorithmus, der für die Regression oder Klassifizierung verwendet wird, die eine Sammlung von Strukturdatenstrukturen verwendet. Um ein neues Objekt aus einem Eingabevektor zu klassifizieren, setzen Sie den Eingabevektor auf jeden der Bäume in der Gesamtstruktur. Each tree gives a classification, and we say the tree votes for that class. The forest chooses the classification having the most votes (over all the trees in the forest). breiman The term random forest is actually trademarked by its authors. See also classification. vector. decision trees . the more general problem of fitting any kind of model to any kind of data. This use of the term regression is a historical accident it is only indirectly related to the original meaning of the word. downey See also linear regression. logistic regression. principal component analysis A class of machine learning algorithms in which the process is not given specific goals to meet but, as it makes decisions, is instead given indications of whether its doing well or not. For example, an algorithm for learning to play a video game knows that if its score just went up, it must have done something right. See also supervised learning. unsupervised learning Root Mean Squared Error Also, RMSE . The square root of the Mean Squared Error. This is more popular than Mean Squared Error because taking the square root of a figure built from the squares of the observation value errors gives a number thats easier to understand in the units used to measure the original observations. See also Mean Absolute Error. Mean Squared Error. A scripting language that first appeared in 1996. Ruby is popular in the data science community, but not as popular as Python, which has more specialized libraries available for data science tasks. See also scripting. Python Imagine a graph showing, for each month since smartphones originally became available, how many people in the US bought their first one. The line would rise slowly at first, when only the early adopters got them, then quickly as these phones became more popular, and then level off again once nearly everyone had one. This graphs line would form a stretched-out S shape. The S curve applies to many other phenomena and is often mentioned when someone predicts that a rising value will eventually level off. A commercial statistical software suite that includes a programming language also known as SAS. Designating or of a quantity that has magnitude but no direction in space, as volume or temperature n. a scalar quantity: distinguished from vector websters See also vector Generally, the use of a computer language where your program, or script, can be run directly with no need to first compile it to binary code as with with languages such as Java and C. Scripting languages often have simpler syntax than compiled languages, so the process of writing, running, and tweaking scripts can go faster. See also Python. Perl. Ruby. shell As prices vary from day to day, you might expect to see patterns. If the price is high on Monday, you might expect it to be high for a few more days and if its low, you might expect it to stay low. A pattern like this is called serial correlation, because each value is correlated with the next one in the series. To compute serial correlation, we can shift the time series by an interval called a lag, and then compute the correlation of the shifted series with the original. Autocorrelation is another name for serial correlation, used more often when the lag is not 1. downey See also correlation When you use a computers operating system from the command line, youre using its shell. Along with scripting languages such as Perl and Python, Linux-based shell tools (which are either included with or easily available for Mac and Windows machines) such as grep, diff, split, comm, head, and tail are popular for data wrangling. A series of shell commands stored in a file that lets you execute the series by entering the files name is known as a shell script. See also data wrangling. scripting. Perl. Python Time series data that also includes geographic identifiers such as latitude-longitude pairs. See also time series data A commercial statistical software package, or according to the product home page, predictive analytics software. spss The product has always been popular in the social sciences. The company, founded in 1968, was acquired by IBM in 2009. See also predictive analytics The ISO standard query language for relational databases. Variations of this extremely popular language are often available for data storage systems that arent strictly relational watch for the phrase SQL-like. The square root of the variance, and a common way to indicate just how different a particular measurement is from the mean. An observation more than three standard deviations away from the mean can be considered quite rare, in most applications. zumel Statistical software packages offer automated ways to calculate the standard deviation. See also variance standard normal distribution A normal distribution with a mean of 0 and a standard deviation of 1. When graphed, its a bell-shaped curve centered around the y axis, where x 0. See also normal distribution. bedeuten. standard deviation Also, standard score . normal score . z-score . Transforms a raw score into units of standard deviation above or below the mean. This translates the scores so they can be evaluated in reference to the standard normal distribution. boslaugh Translating two different test sets to use standardized scores makes them easier to compare. See also standard deviation. bedeuten. standard normal distribution A commercial statistical software package, not to be confused with strata. See also strata, stratified sampling strata, stratified sampling Divide the population units into homogeneous groups (strata) and draw a simple random sample from each group. gonick Strata also refers to an OReilly conference on big data, data science, and related technologies. See also Stata A type of machine learning algorithm in which a system is taught to classify input into specific, known classes. The classic example is sorting email into spam versus ham. See also unsupervised learning. reinforcement learning. machine learning support vector machine Also, SVM . Imagine that you want to write a function that draws a line on a two-dimensional x - y graph that separates two different kinds of pointsthat is, it classifies them into two categoriesbut you cant, because on that graph theyre too mixed together. Now imagine that the points are in three dimensions, and you can classify them by writing a function that describes a plane that can be positioned at any angle and position in those three dimensions, giving you more opportunities to find a working mathematical classifier. This plane that is one dimension less than the space around it, such as a two-dimensional plane in a three-dimensional space or a one-dimensional line on a two-dimensional space, is known as a hyperplane. A support vector machine is a supervised learning classification tool that seeks a dividing hyperplane for any number of dimensions. (Keep in mind that dimensions dont have to be x . y . and z position coordinates, but any features you choose to drive the categorization.) SVMs have also been used for regression tasks as well as categorization tasks. See also supervised learning. feature Also, students t distribution . A variation on normal distribution that accounts for the fact that youre only using a sampling of all the possible values instead of all of them. Invented by Guiness Brewery statistician William Gossett (publishing under the pseudonym student) in the early 20th century for his quality assurance work there. See also normal distribution A commercial data visualization package often used in data science projects. time series data Strictly speaking, a time series is a sequence of measurements of some quantity taken at different times, often but not necessarily at equally spaced intervals. boslaugh So, time series data will have measurements of observations (for example, air pressure or stock prices) accompanied by date-time stamps. See also spatiotemporal data. moving average The Unstructured Information Management Architecture was developed at IBM as a framework to analyze unstructured information, especially natural language. OASIS UIMA is a specification that standardizes this framework and Apache UIMA is an open-source implementation of it. The framework lets you pipeline other tools designed to be plugged into it. See also computational linguistics. GATE A class of machine learning algorithms designed to identify groupings of data without knowing in advance what the groups will be. See also supervised learning. reinforcement learning. clustering . How much a list of numbers varies from the mean (average) value. It is frequently used in statistics to measure how large the differences are in a set of numbers. It is calculated by averaging the squared difference of every number from the mean. segaran Any statistical package will offer an automated way to calculate this. See also mean. bias. standard deviation Websters first mathematical definition is a mathematical expression denoting a combination of magnitude and direction, which you may remember from geometry class, but their third definition is closer to how data scientists use the term: an ordered set of real numbers, each denoting a distance on a coordinate axis websters. These numbers may represent a series of details about a single person, movie, product, or whatever entity is being modeled. This mathematical representation of the set of values makes it easier to take advantage of software libraries that apply advanced mathematical operations to the data. See also matrix. linear algebra An open source set of command line and graphical user interface data analysis tools developed at the University of Waikato in New Zealand. References Sarah Boslaugh, Statistics in a Nutshell . 2nd Edition (Sebastopol: OReilly Media, 2012). David M. Bourg and Glenn Seeman AI for Game Developers (Sebastopol: OReilly Media, 2004). Leo Breiman and Adele Cutler, Random Forests. accessed 2015-08-22. Allen B. Downey Think Stats . 2nd Edition (Sebastopol: OReilly Media, 2014). Larry Gonick and Woolcott Smith, The Cartoon Guide to Statistics (New York: HarperCollins, 1993) S. N. Goodman, Toward evidence-based medical statistics. 1: The P value fallacy . Annals of Internal Medicine, 130:9951004, 1999. (quoted in Reinhart ) Mahmoud Parsian, Data Algorithms . (Sebastopol: OReilly Media, 2015). 82. Stanton, J. M. (2012). Introduction to Data Science . Third Edition. iTunes Open Source eBook. Available: itunes. appleusbookintroduction-to-data-scienceid529088127mt11 Victoria Neufeldt, Editor in Chief, Websters New World College Dictionary . Third Edition (New York: Macmillan, 1997). Nina Zumel and John Mount, Practical Data Science with R (Shelter Island: Manning Publications, 2014).Slideshare uses cookies to improve functionality and performance, and to provide you with relevant advertising. Wenn Sie fortfahren, die Website zu durchsuchen, stimmen Sie der Verwendung von Cookies auf dieser Website zu. Siehe unsere Benutzervereinbarung und Datenschutzbestimmungen. Slideshare verwendet Cookies, um Funktionalität und Leistung zu verbessern und Ihnen relevante Werbung zu bieten. Wenn Sie fortfahren, die Website zu durchsuchen, stimmen Sie der Verwendung von Cookies auf dieser Website zu. Siehe unsere Datenschutzrichtlinie und Benutzervereinbarung für Details. Entdecken Sie alle Ihre Lieblingsthemen in der SlideShare App Holen Sie sich die SlideShare App für später speichern auch offline Weiter zur mobilen Website Upload Anmelden Signup Doppel-Tap to zoom out Kapitel 16 Share this SlideShare LinkedIn Corporation copy 2017

Comments

Popular posts from this blog

Stockmann Tapiola Forex Kaufen

Option Handel Leerverkäufe

Types Of Binary Optionen