Neuer und guter Online-Übersetzter (DeepL)

Alles, was nicht direkt mit Python-Problemen zu tun hat. Dies ist auch der perfekte Platz für Jobangebote.
Antworten
Benutzeravatar
snafu
User
Beiträge: 6731
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

Falls jemand fremdsprachige Text übersetzen muss, so ist DeepL wohl ziemlich gut.

Habe mal für einen ersten Eindruck die Einleitung vom Python-Tutorial übersetzen lassen:
Das Python Tutorial

Python ist eine einfach zu erlernende, leistungsfähige Programmiersprache. Es verfügt über effiziente High-Level-Datenstrukturen und einen einfachen, aber effektiven Ansatz zur objektorientierten Programmierung. Python's elegante Syntax und dynamische Schreibweise, zusammen mit seiner interpretierten Natur, machen es zu einer idealen Sprache für Scripting und schnelle Anwendungsentwicklung in vielen Bereichen auf den meisten Plattformen.

Der Python-Interpreter und die umfangreiche Standardbibliothek sind auf der Python-Website https://www.python.org/ für alle wichtigen Plattformen frei verfügbar und können frei verteilt werden. Die gleiche Site enthält auch Distributionen und Verweise auf viele kostenlose Python-Module, Programme und Tools von Drittanbietern sowie zusätzliche Dokumentation.

Der Python-Interpreter lässt sich leicht um neue Funktionen und Datentypen erweitern, die in C oder C++ (oder anderen Sprachen, die von C aus aufrufbar sind) implementiert sind. Python eignet sich auch als Erweiterungssprache für anpassbare Anwendungen.

Dieses Tutorial führt den Leser informell in die grundlegenden Konzepte und Funktionen der Python-Sprache und des Systems ein. Es hilft, einen Python-Interpreter für die praktische Anwendung parat zu haben, aber alle Beispiele sind in sich abgeschlossen, so dass das Tutorial auch offline gelesen werden kann.

Eine Beschreibung der Standardobjekte und -module finden Sie in der Python-Standardbibliothek. Die Python-Sprachreferenz gibt eine formalere Definition der Sprache. Um Erweiterungen in C oder C++ zu schreiben, lesen Sie das Handbuch Erweitern und Einbetten des Python-Interpreters und des Python/C API-Referenzhandbuchs. Es gibt auch mehrere Bücher über Python in der Tiefe.

Dieses Tutorial versucht nicht, umfassend zu sein und deckt nicht jedes einzelne Feature oder auch nur alle gebräuchlichen Features ab. Stattdessen werden viele der bemerkenswertesten Funktionen von Python vorgestellt, und Sie erhalten einen guten Eindruck vom Geschmack und Stil der Sprache. Nach dem Lesen können Sie Python-Module und -Programme lesen und schreiben, und Sie sind bereit, mehr über die verschiedenen Python-Bibliotheksmodule zu erfahren, die in der Python-Standardbibliothek beschrieben sind.

Auch das Glossar ist es wert, durchzugehen.
Benutzeravatar
Kebap
User
Beiträge: 686
Registriert: Dienstag 15. November 2011, 14:20
Wohnort: Dortmund

DeepL scheint mir auch richtig gut, ist mein neuer Standard-Übersetzer. Jedenfalls deutlich besser als das Google-Teil, das ich bislang genutzt hatte (wenn überhaupt, weil so schlecht). Zudem wurde es in Deutschland entwickelt, das unterstütze ich doppelt gerne.

Kann mir gut vorstellen, damit halbwegs automatisch die Python Dokumentation zu übersetzen.

Als Wörterbuch kann ich Linguee empfehlen. Das scheint mir auch deutlich besser als die ganzen "Wort für Wort" Wörterbücher, die die großen Verlage bspw. ausspucken. In Linguee finden sich auch viele übliche Phrasen leicht wieder, die bei Leo bspw. nur irgendwo ganz hinten im Forum vielleicht mal diskutiert werden. Linguee durchsucht nämlich vorhandene mehrsprachige Webseiten, bspw. vom Europäischen Parlament, wo viele lange Texte professionell übersetzt vorliegen, und generiert daraus seine Übersetzungsvorschläge.
MorgenGrauen: 1 Welt, 8 Rassen, 13 Gilden, >250 Abenteuer, >5000 Waffen & Rüstungen,
>7000 NPC, >16000 Räume, >200 freiwillige Programmierer, nur Text, viel Spaß, seit 1992.
Benutzeravatar
snafu
User
Beiträge: 6731
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

Wenn ich eine in der Qualität absteigende Rangliste machen müsste:
DeepL > Linguee > dict.cc > leo.org
nezzcarth
User
Beiträge: 1631
Registriert: Samstag 16. April 2011, 12:47

Die Ergebnisse sehen wirklich nicht schlecht aus. Soweit ich es herausfinden konnte, ist das wieder eines von den Produkten, bei denen versucht wird, natürliche Sprache mit rein mathematischen Methoden zu bezwingen. Ich bin etwas skeptisch, ob sich das langfristig bewährt, oder auf einem bestimmten Qualitätsstand einfach stehen bleibt.
Benutzeravatar
snafu
User
Beiträge: 6731
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

nezzcarth hat geschrieben:Soweit ich es herausfinden konnte, ist das wieder eines von den Produkten, bei denen versucht wird, natürliche Sprache mit rein mathematischen Methoden zu bezwingen. Ich bin etwas skeptisch, ob sich das langfristig bewährt, oder auf einem bestimmten Qualitätsstand einfach stehen bleibt.
Es ist zumindest ein weiterer Schritt in der Evolution von Spracherkennung durch KI, wenn man so will. Bald kommt halt jemand und verbessert die dahinterliegende Logik erneut. Derzeit ist DeepL jedenfalls mein Favorit bei der Übersetzung von englischsprachigen Texten.
Benutzeravatar
DeaD_EyE
User
Beiträge: 1011
Registriert: Sonntag 19. September 2010, 13:45
Wohnort: Hagen
Kontaktdaten:

Letztendlich passiert nichts anderes in unserem Gehirn. Die lernfähigen Algorithmen brauchen zwei Dinge:
  • Klassifizierte Big Data
  • Rechenleistung
Wie ein neuronales Netz genau zu einer Entscheidung gekommen ist, kann noch niemand erklären. Man hat ja gehofft, dass man durch die Erforschung der KI auch mehr über das menschliche Gehirn erfährt. Leider kann man die neuronalen Netze bis jetzt nur benutzen. Verstanden worden sind sie bis jetzt noch nicht.

DeepL ist auf jeden Fall derzeitig der beste Übersetzer den ich kenne. Auch noch von einem deutschen Unternehmen. Das ist schön.
sourceserver.info - sourceserver.info/wiki/ - ausgestorbener Support für HL2-Server
__deets__
User
Beiträge: 14480
Registriert: Mittwoch 14. Oktober 2015, 14:29

Woher hast du dann, das man NNs nicht verstehen würde? Das ist doch keine schwarze Magie. Sondern prinzipiell recht simple Verfahren, deren Beliebtheit in den letzten Jahren nicht durch Durchbrüche in der KI Forschung kam, sondern die gigantisch angewachsene Menge von CPU, RAM und Daten. So das man halt auf ein paar Millionen Katzenbilder etc trainieren kann. Sagst du doch selbst.

Dabei ist aber noch lange nichts rumgekommen, das auch nur ansatzweise kreativ oder problemlösekompetent wäre. Sondern im Grunde eine - unzweifelhaft faszinierende - Kompressionstechnik zur Abbildung von Zustandsräumen auf Ergebnisräume. Lassen sich damit viele Probleme des Alltags elegant lösen? Unzweifelhaft. Aber intelligent ist das nicht, und adaptiv zb auch nicht.
Benutzeravatar
snafu
User
Beiträge: 6731
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

@DeaD_EyE:
Ich verstehe Künstliche Intelligenz und Neuronale Netze auch nicht wirklich (neben vielen anderen Dingen). Aber Experten auf diesem Gebiet wissen wahrscheinlich schon, was da vor sich geht. Ich mein: Es wurde ja auch von Menschen programmiert. Wenn du hingegen Quantencomputer gesagt hättest, dann würde ich zustimmen, dass hier wahrscheinlich noch nicht alles geklärt ist, aber darum geht es hier ja nicht. Sicherlich können Neuronale Netze für den jeweiligen Anwendungsbereich noch optimiert werden, aber das hat ja nichts mit dem vermeintlichen Unverständnis vom Status Quo zu tun. Technik lässt sich prinzipiell immer verbessern.
Benutzeravatar
snafu
User
Beiträge: 6731
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

@__deets__:
Streng genommen würde man hier vom KNN (künstliches neuronales Netz) sprechen, da es sich an den Beobachtungen von neuronalen Netzen aus der Natur orientiert und diese nachbildet. Ich würde aber nicht sagen, dass das dann echte Neuronen sind, so wie sie im Hirn vorkommen.
Sirius3
User
Beiträge: 17703
Registriert: Sonntag 21. Oktober 2012, 17:20

@snafu: eher umgekehrt. Quantencomputer sind primitiv und leicht zu verstehen; die Technik dahinter ist das komplizierte. Neuronale Netze haben dagegen eine primitive Technik, wegen ihrer schieren Größe sind sie dagegen nicht mehr zu verstehen. Man trainiert, und hofft, dass das Ergebnis das ist, was man haben will, und falls nicht, muß man eben anders trainieren.
Benutzeravatar
snafu
User
Beiträge: 6731
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

Nun ja, bei KNNs kennt man die Hebel und kann diese verschieben. Nur weiß man anfangs nicht, welche Konfiguration ein möglichst gutes Ergebnis liefert, d.h. wann das KNN die Ergebnisse ausspuckt, die man aufgrund der Trainingsdaten erwartet. Das grundlegende Prinzip ist klar (gewichtete Eingänge + Schwellwert bei dem das Neuron feuern soll), nur kann man als Mensch bisher nicht vorab sagen, welche Parameter bei einem komplexen Problem die richtigen sind. Also insofern ist das schon recht primitiv. Da stimme ich deinem Vergleich mit den Quantencomputern ehrlich gesagt nicht zu. Letztere finde ich komplizierter.
__deets__
User
Beiträge: 14480
Registriert: Mittwoch 14. Oktober 2015, 14:29

Es gibt ja auch andere Algorithmen deren Ergebnisse nicht vorhersagbar sind. Simulated annealing, random forests, heuristische Verfahren zur Routenoptimierung etc. Das mit “wir verstehen nicht, wie das funktioniert” zu argumentieren ist genauso wenig richtig. Wir können qua der Komplexität halt die Ergebnisse nicht immer Voraussagen.
Kniffte
User
Beiträge: 64
Registriert: Dienstag 27. September 2016, 11:05

Übrigens:
Ohne Linguee kein DeepL... (DeepL ist von den gleichen Jungs, die Linguee entwickelt haben)
DeepL nutzt die Datenbank der Sprachsuchmaschine Linguee zum Trainieren der Algorithmen.
Interessante Historie:
https://www.deepl.com/press.html
Benutzeravatar
DeaD_EyE
User
Beiträge: 1011
Registriert: Sonntag 19. September 2010, 13:45
Wohnort: Hagen
Kontaktdaten:

__deets__ hat geschrieben:Woher hast du dann, das man NNs nicht verstehen würde?
Niemand ist in der Lage zu sagen wieso ein NN zu einer Entscheidung gekommen ist.
Falls du das weißt, dann erkläre es uns und dann kannst du dein Nobelpreis abholen.

Lediglich die Mechanik von etwas zu kennen, bedeutet nicht, dass man die komplette Maschine verstanden hat. Ja, wir können NN optimieren bis wir das Ergebnis bekommen, was wir haben wollen. Wir können aber nicht erklären wieso das NN sich für etwas entschieden hat.
sourceserver.info - sourceserver.info/wiki/ - ausgestorbener Support für HL2-Server
DasIch
User
Beiträge: 2718
Registriert: Montag 19. Mai 2008, 04:21
Wohnort: Berlin

Es gibt einen riesigen Unterschied zwischen "Wir verstehen nicht wie neuronales Netzwerk X zu Entscheidung Y gekomment ist." und "Wir verstehen neuronale Netzwerke nicht.".

Es gibt wie __deets__ schon erwähnt hat eine ganze Reihe von Algorithmen bei denen man nicht einfach nachvollziehen kann wie es zu einer bestimmten Entscheidung gekommen ist. Wie neuronale Netzwerke funktionieren ist durchaus klar, sie interpolieren eine Funktion. Das Problem ist festzustellen welche Funktion nach dem Training herausgekommen ist.

Davon mal abgesehen hat das neuronale Netzwerk in deinem Kopf und neuronale Netzwerke aus dem Bereich Machine Learning praktisch nichts gemeinsam. Erstere haben nur den selben Namen und sind von davon inspiriert wie man vor ~75 Jahren gedacht hat dass das Gehirn funktionieren könnte.
__deets__
User
Beiträge: 14480
Registriert: Mittwoch 14. Oktober 2015, 14:29

DeaD_EyE hat geschrieben: Niemand ist in der Lage zu sagen wieso ein NN zu einer Entscheidung gekommen ist.
Falls du das weißt, dann erkläre es uns und dann kannst du dein Nobelpreis abholen.

Lediglich die Mechanik von etwas zu kennen, bedeutet nicht, dass man die komplette Maschine verstanden hat. Ja, wir können NN optimieren bis wir das Ergebnis bekommen, was wir haben wollen. Wir können aber nicht erklären wieso das NN sich für etwas entschieden hat.
Du bist derjenige, der diese Behauptung aufstellt, das "wir" das nicht wuessten. Aber ich muss einen Nobelpreis vorlegen? Es gibt eine Vielzahl von Prozessen und Algorithmen, bei denen wir die Ergebnisse nicht vorhersagen koennen, weil sie Zufallselemente beinhalten oder nicht so genau kontrolliert werden koennen. Beruehmtes Beispiel: Intel-Fabs, die irgendwelche Rohre um die Ecke legen, weil das in der Ur-Fab so aus architektonischen Gruenden so war. Auch wenn die neue Fab das nicht erzwingen wuerde. Und sie nicht wissen, ob das nicht einen Einfluss auf die Ausbeute an ICs hat. Nur weil dem so ist, sagt doch auch keiner "also wir wissen nicht, wie man ICs herstellt".

Und angesichts der Tatsache, das es durchaus Moeglichkeiten gibt, deep learning Verfahren mit relativ simplen Mechanismen auszuhebeln, die aus einem Panda eine Schildkroete machen, ohne das der Mensch diesem Irrtum unterliegt, scheint mir das doch durchaus gut verstanden, welche Teile eines NNs was machen, und wie man das zur Manipulation nutzen kann.
Benutzeravatar
snafu
User
Beiträge: 6731
Registriert: Donnerstag 21. Februar 2008, 17:31
Wohnort: Gelsenkirchen

DeaD_EyE hat geschrieben:Niemand ist in der Lage zu sagen wieso ein NN zu einer Entscheidung gekommen ist. (...)

Lediglich die Mechanik von etwas zu kennen, bedeutet nicht, dass man die komplette Maschine verstanden hat. Ja, wir können NN optimieren bis wir das Ergebnis bekommen, was wir haben wollen. Wir können aber nicht erklären wieso das NN sich für etwas entschieden hat.
Ich glaube, du missverstehst da was. Mag sein, dass niemand in der Lage ist, für ein komplexes Problem im ersten Anlauf die perfekte Konfiguration eines KNNs zu finden. Aber dass es nachträglich niemand erklären kann, ist doch ziemlich unwahrscheinlich.

Das ist ja in etwa vergleichbar mit dem Finden einer komplexen Gleichung, um ein physikalisches Phänomen zu beschreiben: Es dauert lange bis irgendein Genie drauf kommt. Aber wenn die Formel einmal vorhanden ist, dann können das einige Experten durchaus nachvollziehen.
DasIch
User
Beiträge: 2718
Registriert: Montag 19. Mai 2008, 04:21
Wohnort: Berlin

Moment mal, so falsch liegt Dead_Eye jetzt nicht. Es ist durchaus nicht wirklich erklärbar wieso ein Neuronales Netzwerk zu einer bestimmten Entscheidung gekommen ist. Dazu lässt sich unter dem Stichwort Explainable Artificial Intelligence (XAI) auch jede Menge finden.

Es gibt durchaus Argumente dafür dass wir es auch möglicherweise nie schaffen werden solche Erklärungen zu bekommen. Siehe z.B. dieser Artikel. Der geht auch auf die Konsequenzen im Zusammenhang mit GDPR ein, was auch nochmal ein spannendes Thema ist.
__deets__
User
Beiträge: 14480
Registriert: Mittwoch 14. Oktober 2015, 14:29

@DasIch na das ist ja etwas belastbares, und beantwortet meine Frage, woher diese Einschaetzung kommt. Die haette ich mir gewuenscht statt der Aufforderung, einen Nobelpreis anzustreben... :roll:
__deets__
User
Beiträge: 14480
Registriert: Mittwoch 14. Oktober 2015, 14:29

So, und nachdem ich den Artikel gelesen habe, finde ich das immer noch eine schwierige Formulierung. Der Artikel ist ja wirklich sehr gut, und beschreibt auch genau das, was ich schon so versucht habe auszudruecken: die Mechanik eines NNs ist wohlbekannt. Welche konkreten Parameter es aber durch sein Training erhaelt, und inwiefern die zu (unvorhersehbaren) Fehlklassifikationen im Sinne nicht eines Bugs, sondern eine unerwuenschten Eigenschaft des Systems, die zu Problemen fuehrt, zur Folge haben - das laesst sich halt nicht vorhersagen. ZB unter ganz bestimmten Umstaenden ein Stoppschild aus einer Schwalbe zu klassifizieren, die gerade vorbeifliegt. Und damit eine Notbremsung auszuloesen.

Nur ist das doch ueberhaupt nichts besonderes im Kontext der komplexen Systeme, die wir den ganzen Tag herstellen. Der Artikel selbst beschreibt das Halteproblem. Wir haben oft genug Situationen, in denen die komplexen Interaktionen von Software und ggf. verteilten Systemen zu Fehlern fuehren. Datencenter bei Amazon, die ausfallen, Finanzmaerkte die ins trudeln geraten, weil die High-Frequency-Trader sich in einer selbstgebauten Erregungsschleife begeben, etc. Das wird durch ML-Verfahren nicht einfacher, ist aber in meinen Augen auch keine substantiell andere Situation.

In der Realtime-Linux community wird zB die Belastbarkeit des PREEMPT-RT Systems auch nur stochastisch ermittelt. Und so geht's jetzt halt auch mit NNs. Die muessen dann eben wie in dem Artikel dargestellt durch festgezurrte Trainingsdaten, konkrete Versionen, die released werden, und ggf. Nachbesserungen mit neuen Daten behandelt werden. Ich sehe da jetzt keine fundamental neue Qualitaet.
Antworten