Wie funktioniert ein neuronales Netz?

  • Mehrere Schichten von Neuronen:
    • eine Ausgangsschicht (die oberste Ebene)
    • eine Zwischenschicht (die versteckte Ebene)
    • eine Eingangsschicht (die unterste Ebene)
  • Deep Learning: Statt nur einer versteckten Schicht gibt es mehrere, möglicherweise sogar hundert solcher versteckten Zwischenschichten. Also:
    • Ausgangsebene
    • Versteckte Zwischenebene
    • Versteckte Zwischenebene
    • Versteckte Zwischenebene
    • Versteckte Zwischenebene
    • Versteckte Zwischenebene
    • Versteckte Zwischenebene
    • Eingangsebene

Beispiel Bilderkennung:

  • Die unterste Schicht kümmert sich darum, Pixel zu erkennen. Bunte Pixel; da ist was Rotes, hier ist was Schwarzes.
  • Die Schicht darüber verbindet Pixel, die zusammenhängen. Zwei schwarze Pixel, die zusammenhängen, ergeben vielleicht einen Strich.
  • Eine weitere Schicht darüber trainiert auf den zusammengesetzten Pixeln, auf den Strichen und setzt daraus wieder etwas Komplexeres zusammen.
  • Jede weitere Schicht lernt kompliziertere Dinge. Auf der obersten Neuronenschicht erkenne ich dann ein Gesicht oder ein Nummernschild.

Klassisches Machine Learning bisher:

  • Es mussten Merkmale definiert werden (erkenne ein Gesicht, erkenne eine Farbe).

Neuronale Netzwerke:

  • Erkennen Merkmale selbständig von sich aus.
  • Durch die vielen Zwischenschichten bilden sich verschiedene Strukturen von Merkmalen;
      • Pixel bilden Striche bilden Formen bilden ein Gesicht;
      • Buchstaben bilden Wörter bilden Wortarten (Adjektiv, Nomen) bilden Sätze bilden Bedeutungen.

Beispiel: Text lernen

  • Das Programm word2vec von Google rennt über einen riesigen Text (z.B. die gesamte Wikipedia), guckt sich 5-8 Wörtern gleichzeitig an und trainiert damit ein neuronales Netzwerk.
  • Das neuronale Netz kennt weder die Sprache noch um was es da geht. word2vec kennt nur die Textinformation, und allein durch das mehrmalige Anschauen hat es Strukturen gelernt und Regeln daraus abgeleitet. Basierend auf dem Grundsatz: Die Regeln der deutschen Sprache sind endlich. Nach einer gewissen Zeit lernen sind die Strukturen, Grammatik und Semantik im neuronalen Netz verankert.
  • Nach ein paar Stunden oder Tagen kann man komplexe Fragen stellen wie „Berlin verhält sich zu Deutschland wie Paris zu…?“ und dann kann es dir „Frankreich“ beantworten.
  • Das funktioniert für jede beliebige Sprache. Wirf der Maschine genug Text hin, und nach zwei Tagen hat das neuronale Netz die Strukturinformation daraus gelernt und kann Fragen beantworten.

Der vereinfachte Lernprozess:

  • Die Optimierungsvorschrift ist: Gehe mit der festen Wortanzahl (=Sliding Window, diese 5-8 Wörter pro Mal) über den Text. Dabei wird das Programm irgendwann sehen, dass Frankreich und Paris oft nebeneinander vorkommen.
  • Das trainiert man mit einem positiven Belohnungsschritt: „Das hier ist ein echter Satz.“
  • Dann nimmt man diese Sequenz, ersetzt ein Wort durch Müll und sagt: „Das hier ist kein guter Satz.“
  • Diese einfachste Vorschrift bewirkt, dass sich auf den jeweiligen Neuronenschichten automatisch Wörter, Grammatik und Bedeutungen bilden.
  •  automatisch Wörter, Grammatik und Bedeutungen bilden.

Der Lernprozess (detailliert):

  • Das Programm verwandelt Wörter in Vektoren. Das heisst:
  • Du gehst durch den gesamten Text durch, zählst jedes Wort, hebst das auf und machst ein Wörterbuch daraus.
  • Man will natürlich nicht jedesmal das Wort „Haus“ ins Wörterbuch aufnehmen, sondern es reicht, es einmal aufzunehmen und dranschreibt, wie oft es vorkommt.
  • Jetzt geht man durch diese Sequenz von Wörtern, die gerade in diesem Sliding Window sind, und sagt: Dieses Ding besteht aus: [Erstes Wort, guck im Wörterbuch nach: Dieses Wort ist im Wörterbuch auf Position 1300], [zweites Wort, guck im Wörterbuch nach: Position 15934].
  • Jetzt hat man statt 5-8 Wörter Gruppen von Zahlen. Und Zahlen sind für Computer einfacher.
  • Diese Zahlen (sog. Vektoren) wirft man jetzt dem neuronalen Netz zum Frass vor. Die Eingangsneuronen kriegen die Zahlen geliefert.
  • Jedes Neuron hat Verbindungen mit anderen Neuronen.
  • Die Anzahl der Verbindungen ist fix.
  • Jede dieser Verbindung hat ein Gewicht; einen Zahlenwert.
  • Oben gibt es ein Endneuron, dass dafür zuständig ist zu sagen: Das ist ein echter Satz,
  • und es gibt ein zweites Neuron, das sagt: Das ist kein echter Satz.
  • Unten liegen die Werte, und oben weiss ich: Entweder feuert das linke oder das rechte Neuron, das was ich haben möchte.
  • Dann lässt man von oben das Netzwerk zurückrechnen. Das wird Backpropagation genannt.
    • Das geht jedesmal in ganz kleinen Schrittchen.
    • Man justiert jeden Wert nur ein kleines bisschen, dafür macht man das ganz oft.
    • Man lernt ein paar Tausend mal in ganz kleinen Schritten.
    • Durch die Backpropagation verändert sich die Vernetzung zwischen den Neuronen, weil sie merken: Über diese Verkettung erziele ich mehr positive Signale, deswegen verstärke ich jetzt diesen Bereich (=die Gewichtung der Verbindung wird erhöht).
    • Irgendwann ist das Netzwerk so stabil, dass sich die Verbindungen kaum noch verändert, egal wie oft man den Text noch durch das Netzwerk lässt.
    • Dann ist das Netzwerk ausgelernt und hat die Struktur erfasst.
  • Auf der untersten Ebene fallen die Worte rein.
  • Auf der obersten Ebene „echter Satz“ oder „nicht echter Satz“.
  • Dazwischen entstehen auf den verschiedenen Neuronenebenen die verschiedenen Teilaspekte der Grammatik – völlig automatisch.
  • Jede Ebene kann eine andere Fragestellung beantworten (=ist das ein Adjektiv, was ist das überhaupt? Gibt es das auch auf Chinesisch oder wie heisst das dort?).

Menschliche Sprache genügt bestimmten Regeln, diese Regeln formen sich in ihrer Struktur aus. Wenn ich ein Netzwerk trainiere auf die Struktur einer Sprache, und das verändert sich irgendwann nicht mehr, dann hat es offensichtlich die Struktur komplett erfasst, und dann finde ich auf bestimmten Ebenen dieses Netzwerks meine Grammatik wieder heraus.

  • Die Kunst besteht darin, zu wissen, wie viele Neuronenschichten und Anzahl Eingangsneuronen es braucht, um mein Problem zu lösen.

Google hat ein neuronales Netzwerk mit allen Youtube-Videos trainiert. Das Netz soll Katzen in einem Video erkennen. Hier ist die Visualisation durch die einzelnen Neuronenschichten, angefangen von der untersten Schicht (Bildrauschen) über die nächste (Striche und Linien) bis hin zu Augen und Gesichtern:

 

  • Man muss eine Sache so oft sehen, bis man sie verstanden hat.
  • Das „Sehen“ ist das Datenset (Millionen von Varianten von Bildern, Zahlen, Formen).
  • Das „Verstehen“ sind die neuronalen Verbindungen.
  • So funktioniert DeepL.
  • Das neuronale Netz hat nur Strukturinformationen gelernt, es weiss selber gar nicht, was es da gelernt hat. Es kann gute Antworten geben, fängt aber nicht plötzlich an, selber zu denken.
  • Diese Strukturinformation, das Extrakt aus dem tagelangen Lernen und Trainieren von Millionen von Datensätzen ist das Einzige, was ich brauche, um kluge Antworten auf meine Fragen zu erhalten. Es sind die gespeicherten Neuronenverbindungen, und die sind ein paar wenige Megabytes gross und passen auf jedes Telefon.

Was bedeutet das für uns?

Sprache analysieren und verstehen, Nummernschilder und Gesichter erkennen, die optimale Route finden, Logikprobleme lösen. Merkt ihr was? Das sind alles Bereiche der Linken Gehirnhälfte.

Die Rechte Gehirnhälfte – Persönlichkeit, Musik, Kunst, Inspiration, Kreativität – das wird eine Maschine niemals modellieren können. Sie kann es bestenfalls nachahmen, basierend auf vorhandenen Trainingsdaten. Man kann mit neuronalen Netzen ein Gehirn bauen, dass aus allen Erkenntnissen der Welt das beste Gehirn der Welt wird und die schnellste und optimalste Lösung findet und andere Gehirne modellieren kann, die noch besser sind – aber Inspiration wird es niemals bekommen. Die göttliche Spontanität ist unberechenbar. Das ist unser Trumpf.

Verschlüsselung besiegt neuronale Netzwerke

Mit neuronalen Netzwerken stehen den Geheimdiensten mächtige Abfrage- und Modellierungswerkzeuge zur Verfügung. Trotzdem: Mit verschlüsselten Daten können sie nach wie vor nichts anfangen, auch nicht mit neuronalen Netzen. Und jetzt verstehe ich auch, wieso.
Eine Maschine erzeugt immer nur Bilder aus einem Eingangssignal (oben im Video das Bildrauschen). Verschlüsselter Text als Eingangssignal erzeugt immer wieder andere Bilder, weil das Rauschen immer wieder ein anderes ist. Eine gute Verschlüsselung garantiert mir eine hohe Entropie, und dass ich in keinem Fall Rückschlüsse über den Originaltext treffen kann.

Hier ist 2x der gleiche Text verschlüsselt:

  1. a) KnkHYNA7A32VCG3Oht8gU2yi1Knp68Eoq/ToP3Ph4/xZ/dUQ+bNwqXohRauABOWFIxANQCtVZxQ==
  2. b) t5r8N05wwMyBd4AjzDEtA9Uh5BUisFb55azh26gfKHyR3nYmAf6b8D9KNzBV8Toc3f82ezGDDPw==

Die einzige Regel, die es daraus abzulesen gibt, ist: Es gibt keine Regel daraus abzuleiten, selbst der gleiche Klartext sieht verschlüsselt immer wieder anders aus. Das besiegt neuronale Netzwerke.

Verschlüsselung ist mächtiger, als die Leute da draussen annehmen.

Anders verhält es sich mit unverschlüsselten Daten

Jedesmal, wenn du ein Gesicht bei Facebook markierst, mit Google mailst, das selbstfahrende Auto aus der Garage holst, in eine Kamera lächelst, „Ok Google“ und „Hey Siri“ in ein Telefon brüllst, hinterlässt du eine Datenspur, die ein neuronales Netz trainiert, welches dann für Zwecke eingesetzt wird, die wir jetzt noch nicht sehen. Eine Maschine kann dann Fragen beantworten, wie sie mit dir umgehen soll, wie dein Tagesablauf aussieht und ob du nächstens eine Gefahr darstellen wirst.

Gib neuronalen Netzen keine Trainingsdaten.

Quelle: scratchbook.ch

Originaldatei: CRE208 Neuronale Netze

Willkommen

DANS-AI is Alternative Information Beyond Mainstream

Top Posts

Die WHO bestätigt, dass der Covid-19 PCR-Test fehlerhaft ist!

Schätzungen von „positiven Fällen“ sind bedeutungslos. Der Lockdown hat keine wissenschaftliche Grundlage Der Real Time Reverse Transcription Polymerase Chain Reaction (rRT-PCR)-Test wurde am 23. Januar 2020 von der WHO als Mittel zum Nachweis des SARS-COV-2-Virus angenommen, nachdem eine Virologie-Forschungsgruppe (mit Sitz am Universitätsklinikum Charité, Berlin), die von der Bill and

TOD IN 5 BIS 10 JAHREN

WORST CASE – NEBENWIRKUNGEN💉 – „TOD IN 5 BIS 10 JAHREN“ Prof. Dolores Cahil, Uni Dublin. Abschluss in Molekular-Genetik am Trinity College Dublin. Doktorarbeit in Immunologie an der Dublin City University 1994. „… Und wir wissen, daß die große Gefahr von den Impfstoffen in den nächsten Jahren ausgeht. Was ich

Die Zukunft beginnt jetzt!

13. März 2021 Jens Wernicke in einem Brief an seine Leser des RubikonErschienen bei https://neue-debatte.com/2021/03/13/die-zukunft-beginnt-jetzt/ Liebe Leserinnen und Leser, in meiner Jugend gab es ein Sprichwort: “Wenn es aussieht wie eine Katze, sich verhält wie eine Katze und schnurrt wie eine Katze, dann ist es auch eine Katze.” Heute muss

Ziviler Ungehorsam

Recent Posts

Mehr Artikel

Danielum

Die unterschätzte Gefahr der zweiten Welle

Es braucht nicht viel unabhängige Recherche, um zu erkennen, dass wir über diese Situation mit dem Coronavirus belogen wurden. Auch Del Bigtrees Youtube-Format „The Highwire“ hat durch seinen investigativen Journalismus in den letzten Monaten im amerikanischen Sprachraum eine phänomenale Arbeit geleistet, um so vieles aufzudecken. Der Youtuber Mikey Landings jedoch ist außerdem der Meinung, dass wir vielleicht immer noch nur an der Oberfläche der zugrundeliegenden, grundlegenden Lüge – der Ansteckungstheorie selbst – kratzen. Und wenn wir nicht die Wahrheit über die Exosomen und den Zusammenhang mit der Toxizität erfahren, könnten wir in der Zukunft überrumpelt werden. Er veröffentlichte daher dieses

Read More »
Danielum

Assange Auslieferungsanhörung eröffnet mit vernichtender Verurteilung durch die Mainstream-Medien

Der Auslieferungsprozess gegen Julian Assange begann damit, dass die Staatsanwaltschaft eine vernichtende Erklärung von fünf führenden Mainstream-Medienorganisationen vorlas, die einst mit Wikileaks zusammenarbeiteten. von Alan Macleod Mintpress Der Auslieferungsprozess gegen Wikileaks-Mitbegründer Julian Assange begann heute vor dem Woolwich Crown Court in London. Assange, 48, wird von der US-Regierung wegen 18 Anklagen wegen Hacking und Verstößen gegen das Spionagegesetz gesucht, insbesondere wegen der Veröffentlichung von Beweisen, die von Gefangener Chelsea Manning durchgesickert sind und die detaillierte Beweise für amerikanische Kriegsverbrechen im Nahen Osten enthalten. Wird er für schuldig befunden, drohen ihm bis zu 175 Jahre Gefängnis. Die Staatsanwaltschaft unter der Leitung

Read More »
Danielum

Bill Gates, Impfungen, Mikrochips und Patent 060606

Beitrag von Global Research Es gibt viele Verschwörungstheorien – einige glauben, dass Reptilien die US-Regierung leiten und andere, dass Coca-Cola das Blut von christlichen Babys zur Herstellung seiner Softdrinks verwendet. Es gibt Leute, die „Chemtrails“ gesehen haben, und andere, die dafür plädieren, beim Fernsehen Aluhüte zu tragen, um sich vor zerstörerischen Gehirnwaschwellen zu schützen. Oft werden die Prophezeiungen der Heiligen Schrift als Kommentar zu irgendeiner technologischen Entdeckung oder einem Ereignis interpretiert. Aber es gibt auch rationale Fakten, die zu leugnen keinen Sinn macht, weil sie dokumentiert sind. Dazu gehören die Existenz des Bilderberg-Clubs, das MK-Ultra-Projekt der CIA und die Finanzierung

Read More »