6 - Mathematische Grundlagen zu Data Analytics, Neuronale Netze und Künstliche Intelligenz [ID:10617]
50 von 725 angezeigt

Machen wir weiter. Ich habe gerade den Titel hier von dieser Folie gekürzt, weil ich in diesem Kapitel was

rausgestrichen habe, was ich jetzt nicht erklären möchte und deswegen das sind die Punkte über die

wir sprechen. Also wir haben in den ganzen Tagen bis jetzt immer angeschaut über Wachteslarn.

Über Wachteslarn bedeutet, ich habe einen Input und dafür habe ich auch ein Target. Alles gut. Und

unüberwachtes Larn meint, man hat einen Input, aber man hat kein Target. Da kann man jetzt alle

möglichen Algorithmen drauf anwenden, die auch interessant sind, zum Beispiel Cluster-Algorithmen.

Aber das was ich jetzt hier machen werde, geht ein bisschen in eine andere Richtung,

nämlich das arbeitet mit Autoencodern. Und die Geschichte hier geht wie folgt,

ich habe einen Inputvektor, den quetsche ich zusammen auf wenige Zwischenvariablen,

sodass ich aus diesen Zwischenvariablen heraus einen Output derselben Breite erklären kann. Und die

Targetwerte, die hier stehen, sind genau dasselbe wie der Input. Also deswegen Autoencoder oder

Autoassociator, weil ich tue den Input hier erstmal so umformen, dass er komprimiert dargestellt

werden kann. Und die Komprimierung soll so sein, dass ich das original rekonstruieren kann. Also

will sagen, ich habe hier eine Kompression und Dekompression und andersrum ausgedrückt,

könnte man sagen, der Inputraum ist hier hochdimensional, aber in Wirklichkeit leben

die Daten gar nicht im hochdimensionalen, sondern nur auf einem niedrigdimensionalen Unterraum. Und

den niedrigdimensionalen Unterraum, den kann ich also jetzt hier durch die wenigen Zwischendurchvariablen

darstellen, sodass wir von denen zurück ableiten können, was denn eben die hochdimensionale

Beschreibung war. Also wir werden dann, am Donnerstag glaube ich, Beispiele haben, wo der

Inputvektor 96-dimensional ist, also richtig viel, und wo die Zwischenvariablen aber nur 12-dimensional

sind. Und dann kann man das trotzdem aus der 12-dimensionalen Zwischen darstellen, dann kann

man das rekonstruieren für alle 96 Variablen. Sprich, die Grundstruktur, die wir also jetzt

angucken ist, ich habe keinen extra Tagel und benutze die Daten selber als Tagelvorgabe. Und

da gibt es zwei Möglichkeiten, wie man das anschauen kann, für diesen einfachen Fall bitte. Also wo

ich nur Input, dann den kleinen Hiddenlayer habe, auch Bottleneck genannt, und dann die

Rekonstruktion für das Große. Da gibt es zwei Möglichkeiten, nämlich ich habe hier eine Matrix,

die die Kompression macht, eine zweite Matrix, die die Dekompression macht, dann muss da zwischen

einen Hiddenlayer liegen, weil wir gesehen haben, zweimal lineare Algebra hintereinander würde

sich wegheben. Oder aber wir hätten auch die Möglichkeit zu sagen, ich habe den Input hier,

mache meine Matrix A, um die Kompression durchzuführen, und dann benutze ich dieselbe

Matrix als transponierte Matrix, um den Rückwärtsschritt zu machen. Das müssen sich etwa so vorstellen,

sie haben hier den Input, das ist ein langer Vektor, der muss auf etwas drauf multipliziert

werden, wo hier nur was Kortes rauskommt, sprich die Form von der Matrix A muss sowas sein,

was ganz viele Spalten und wenige Zahlen hat. So und das was ich hier dann brauche, wenn ich

von den wenigen Größen hier wieder auf die großen Größe gehe, das wäre doch eine Möglichkeit zu

sagen, naja, also jetzt brauche ich etwas, was ganz wenige Spalten hat, aber ganz viele Zeilen hat.

Und so von der Form her sieht das doch schon mal genauso aus, wie als würde ich die transponierte

Matrix von da unten benutzen. Und wenn ich versuche das mit A und A transponiert auszudrücken,

diese Bottleneckstruktur hier, dann darf ich auch keinen Tangentzar hier in der Mitte haben,

dann darf ich nur die Identität hier in der Mitte haben, aber das ist nicht schlimm,

weil in Wirklichkeit habe ich ja nur eine einzige Matrix, die hier vorkommt, sprich,

da habe ich nicht das Problem zu lösen, was ich hier zu lösen habe, wenn ich zwei verschiedene

Matrizen habe. Und die Frage ist, wann geht das hier? Naja, also erst mal als Überlegung,

so unterschiedlich sind die beiden Bilder hier nicht, weil hier kann ich ja auch nur eine lineare

Matrix benutzen, um eine Kompression durchzuführen, genau wie hier. Und dann sorgt der Tangentzar

dafür, dass das nicht kollabiert mit dem oberen Teil, aber im Prinzip habe ich auch nur eine

lineare Matrix, die die Dekompression macht. Sprich, von der Form der Matrizen her sieht

das auf beiden Seiten gleich aus. Das hier ist halt eine Kompressionsmatrix, das hier ist eine

Dekompression, die sieht im Prinzip so aus. Der Witz besteht nur darin, will ich hier eine zweite

Matrix benutzen oder will ich dieselbe Matrix in transponierter Form benutzen? Und dann kann man

Zugänglich über

Offener Zugang

Dauer

01:21:22 Min

Aufnahmedatum

2019-04-16

Hochgeladen am

2019-04-20 00:54:24

Sprache

de-DE

Einbetten
Wordpress FAU Plugin
iFrame
Teilen