Supercomputer für alle?

Alles, was nicht direkt mit Python-Problemen zu tun hat. Dies ist auch der perfekte Platz für Jobangebote.
nemomuk
User
Beiträge: 862
Registriert: Dienstag 6. November 2007, 21:49

Hallo,

gestern hatte ich mal wieder Zeit, um über die Zukunft zu denken... :D
Und habe mir überlegt, ob es nicht sinnvoller und effizienter (strom- und ressourcensparender) wäre, einen Supercomputer für zB alle Menschen in Bayern, Deutschland zu verwenden. Sozusagen ein "Superserver", mit dem man natürlich über ein wesentlich schnelleres Netz verbunden sein muss, als unser heutiges Internet ist. Dieser Supercomputer hat alles was man heute auf einem PC zu Hause hat: Rechenleistung, Speicher (Spiele,Musik,Filme...), Programme etc. Dieser Computer wäre dann (in meiner Vorstellung) ein Riesencluster, der sich je nach Bedarf variabel ein udn ausschalten lässt (stromsparend) und auf einen Riesenspeicher zugreift. Dieser Computer macht dann natürlich das gleiche, wie der Rechner zu Hause - müsste zB auch die komplette Grafik für ein 3D Spiel berrechnen. Zu Hause braucht man natürlich nur noch einen Bildschirm, der diese Inhalte ausgibt.
Inwieweit das umsetzbar ist, sei natürlich dahingestellt. Aber bei dem technischen Fortschritt heute, denke ich, wird es machbar sein, wenn es sinnvoll ist.
Sicherheits- und Datenschutztechnisch ist das natürlich auch bednklich.

Ist so etwas realistisch? Was haltet ihr von dieser Idee?

Ich bin natürlich kein Computergenie, aber meiner Meinung nach, wäre für jeden, so eine wesentlich höhere Computer Leistung, bei weniger benötigter Hardware und Strom verfügbar.

MfG

###Ich hab mir das nur so überlegt und wünsche nicht total ausgelacht zu werden. :wink: :)
meneliel
User
Beiträge: 256
Registriert: Montag 25. Juni 2007, 08:35
Kontaktdaten:

aber dann hätte man zu hause keine hübschen Rechner mehr :(
burli
User
Beiträge: 1156
Registriert: Dienstag 9. März 2004, 18:22

Warum auslachen wenn jemand sich mal Gedanken macht? Aber es gibt einige Gründe warum es nicht funktionieren dürfte.

Zum einen bräuchte das Ding eine gewaltige Rechenleistung, vor allem wenn er die 3d Grafiken von Spielen rendern soll. Dann braucht jeder User trotz allem noch ein Gerät das die Signale empfängt und an den Bildschirm leitet und Tastatur und Maus bedient. Und dann ist da noch die Frage ob ich meine sämtlichen Daten und Aktivitäten komplett in die Hände von anderen Leuten geben möchte. Ich mache ja schon, wo immer möglich, einen Bogen um die ganzen Sonderdienste von Google und verwende sogar die Suche nur in Ausnahmefällen.

In kleinerem Rahmen, zb in Firmen, könnte man so etwas machen und gibt es ja auch gelegentlich. Da sind die Arbeitsplätze nur sog. Thin Clients und die eigentliche Arbeit machen ein paar zentrale Server. Aber auch nur wenn es nicht gerade ein CAD Büro ist.
Benutzeravatar
gerold
Python-Forum Veteran
Beiträge: 5555
Registriert: Samstag 28. Februar 2004, 22:04
Wohnort: Oberhofen im Inntal (Tirol)
Kontaktdaten:

SchneiderWeisse hat geschrieben:Und habe mir überlegt, ob es nicht sinnvoller und effizienter (strom- und ressourcensparender) wäre, einen Supercomputer für zB alle Menschen in Bayern, Deutschland zu verwenden.
Hallo SchneiderWeisse!

Ich hätte da immer ein ungutes Gefühl bei der Sache. Da ich Admin mehrerer Server bin, weiß ich, dass man, wenn man es darauf anlegt, alle Aktivitäten der Benutzer nachverfolgen kann. Ich will nicht dass eine Gruppe von Administratoren, Cracker und Beamten so viele Daten über mich sammeln können. Das Abhören und ausforschen wird so für den Staat noch einfacher als es jetzt schon ist.

Mit so einem Supercomputer würde man außerdem einen "Single Point of Failure" der Superlative schaffen! Um Deutschland oder Österreich datentechnisch lahm zu legen, bräuchte man nur mehr diesen einen Supercomputer zu sabotieren. Man müsste enorme Energie in die Absicherung dieses Computers investieren.

Es gibt aber Überlegungen in die andere Richtung. Einen Supercomputer aus der nicht genutzten Rechenleistung vieler vernetzter Computer zu machen.
Man müsste nur ein Programm schaffen, welches auf vielen Computern in einer Sandbox läuft und im Hintergrund Berechnungen durchführt, nicht gebrauchten Speicher und einen Teil der Festplattenkapazität nutzt.

Man müsste aber dem Hersteller des Programms vertrauen können. Wenn XEN bereits besser von den Computern unterstützt werden würde, dann könnte man so ein Programm im Hintergrund in einem eigenen virtuellen Computer laufen lassen. Das würde die Akzeptanz eines solchen Programmes extrem erhöhen. Aber das wird schon noch kommen.

Es wird wahrscheinlich so sein, dass man die Rechenleistung seines eigenen Computers verkaufen/vermieten können wird. Genau so, wie in jedem Haus ein kleiner Generator stehen wird um sich seinen eigenen Strom zu produzieren.

Ich bin also mehr der Meinung, dass man eine große Aufgabe in eine vernünftige Menge kleiner Aufgaben aufsplitten und in kleine Geräte auslagern soll.
Viele kleine und überschaubare Aufgaben, die zu einem großen, redundanten System zusammengefasst werden. So hat man es später bei Fehlerfällen mit vielen kleinen Störungen und nicht mit einer großen Störung zu tun. Kleine Störungen kann ich von spezialisierten Fachleuten reparieren lassen. Eine große Störung kann nur von Genies repariert werden, die das ganze System beherrschen.

mfg
Gerold
:-)
Zuletzt geändert von gerold am Montag 25. Februar 2008, 21:29, insgesamt 1-mal geändert.
http://halvar.at | Kleiner Bascom AVR Kurs
Wissen hat eine wunderbare Eigenschaft: Es verdoppelt sich, wenn man es teilt.
nemomuk
User
Beiträge: 862
Registriert: Dienstag 6. November 2007, 21:49

Gerold, bin vollkommen deiner Meinung und hatte auch diese Bedenken...
(Bin auch Server Admin...;))

Bin jedoch nicht auf die Idee gekommen, alle PCs zu vernetzen... - obwohl es das ja schon gibt.

Und das mit dem lahmlegen ist natürlich auch ein ganz wichtiger Punkt..
Benutzeravatar
veers
User
Beiträge: 1219
Registriert: Mittwoch 28. Februar 2007, 20:01
Wohnort: Zürich (CH)
Kontaktdaten:

Den Schäuble würde diese Entwicklung bestimmt freuen ;)
[url=http://29a.ch/]My Website - 29a.ch[/url]
"If privacy is outlawed, only outlaws will have privacy." - Phil Zimmermann
Benutzeravatar
Rebecca
User
Beiträge: 1662
Registriert: Freitag 3. Februar 2006, 12:28
Wohnort: DN, Heimat: HB
Kontaktdaten:

Supercomputer und stromsparen in einem Satz -- da ware ich vorsichtig! :wink: Dadurch, dass du soviele Hardware-Komponenten auf engem Raum zusammen hast, brauchst du eigentlich fuer alles Spezialloesungen: Kuehlung insbesondere, dann Stromversorgung und Datenanbindung (nicht nur die Datenanbindung zur Aussenwelt, sondern auch der Transport der Daten vom RAM zu Festspeicher...)

Es gibt ja uebrigens auch eine Green Top 500: http://www.green500.org/ Man muesste mal die Werte mit normalen PCs vergleichen...
Offizielles Python-Tutorial (Deutsche Version)

Urheberrecht, Datenschutz, Informationsfreiheit: Piratenpartei
Nikolas
User
Beiträge: 102
Registriert: Dienstag 25. Dezember 2007, 22:53
Wohnort: Freiburg im Breisgau

Es gibt aber Überlegungen in die andere Richtung. Einen Supercomputer aus der nicht genutzten Rechenleistung vieler vernetzter Computer zu machen.
Man müsste nur ein Programm schaffen, welches auf vielen Computern in einer Sandbox läuft und im Hintergrund Berechnungen durchführt, nicht gebrauchten Speicher und einen Teil der Festplattenkapazität nutzt.
Das wird doch schon gemacht. Seti@home dürfte da das bekannteste sein. Mit dieser BOINC-Software gibts schon ein paar andere Projekte, die polymere faltet, das Klima vorraussagt oder Nullstellen der Zeta-Funktion sucht. :lol:
Erwarte das Beste und sei auf das Schlimmste vorbereitet.
CM
User
Beiträge: 2464
Registriert: Sonntag 29. August 2004, 19:47
Kontaktdaten:

Nikolas hat geschrieben:... die polymere faltet ...
Mit z. T. beeindruckenden Resultaten: http://folding.stanford.edu/English/Papers
Und solche Sachen kann man sogar aufsetzen, ohne das gleich der Konkurrent draufschaut: http://www.cmbi.kun.nl/models/
Soooo abwegig ist die Idee gar nicht. Kommt halt auf die Applikation und das hineingesteckte Hirnschmalz an - wie immer im Leben ;-) .

Gruß,
Christian
Benutzeravatar
gerold
Python-Forum Veteran
Beiträge: 5555
Registriert: Samstag 28. Februar 2004, 22:04
Wohnort: Oberhofen im Inntal (Tirol)
Kontaktdaten:

Nikolas hat geschrieben:Das wird doch schon gemacht. Seti@home dürfte da das bekannteste sein.
Hallo Nikolas!

Seti und Co sind bekannt. Aber ich wollte auf eine höhere Ebene. Seti und Co sind einzelne Programme. Aber wie wäre es, wenn man einen "Virtuellen Computer" aus vielen Computern hätte. Sozusagen, ein für Vieles verwendbarer, in mehrere virtuelle Maschinen aufteilbarer Computer, der aus den Ressourcen von vielen, dynamisch auswechselbaren Computern bestünde. Aus Computern im Internet und aus Computern in Rechenzentren. Redundanter Speicherplatz, der auch dann noch alle Daten enthält, wenn ein Teil der Computer nicht erreichbar ist.

Je besser die Netze werden und je besser die Unterstützung für XEN/Hypervisor oder andere Systeme zum Hosten von virtuellen Computern wird, desto eher ist so eine Vernetzung der Rechenleistung denkbar. Man will seinen Computer ja auch verwenden können. ;-)

mfg
Gerold
:-)
Zuletzt geändert von gerold am Montag 25. Februar 2008, 21:30, insgesamt 1-mal geändert.
http://halvar.at | Kleiner Bascom AVR Kurs
Wissen hat eine wunderbare Eigenschaft: Es verdoppelt sich, wenn man es teilt.
nemomuk
User
Beiträge: 862
Registriert: Dienstag 6. November 2007, 21:49

naja, ist nur die Frage, ob das in diesem Fall wirklich besser ist mit Datenschutz...
Leonidas
Python-Forum Veteran
Beiträge: 16025
Registriert: Freitag 20. Juni 2003, 16:30
Kontaktdaten:

Habe ich erwähnt, dass ich auf meinem Server einen kleinen Online-Desktop habe? :D

Und so eine Virtuelle Maschine mit Xen ist durchaus denkbar. Xen ist ausreichend einfach einzusetzen, nur ist die Unterstützung für Ressourcen-Limitierung noch recht gering. Du willst nicht, dass eine solche fremdgenutzte Instanz 100% CPU-Leistung verbraucht oder per Bittorrent Kram runterlädt. Außerdem hat man das problem, dass wenn ungenutzte CPU-Leistung verwendet wird der Prozessor dann ausgelastet ist und nicht in einen sparsameren Modus schalten kann. Ich habe auch jetzt schon fast ein schlechtes Gewissen, weil Xen kein CPU-Frequency-Scaling unterstützt und der Server mit 2x2800 MHz läuft, wo 2x1000 eigentlich reichen würden.
My god, it's full of CARs! | Leonidasvoice vs (former) Modvoice
burli
User
Beiträge: 1156
Registriert: Dienstag 9. März 2004, 18:22

Leonidas hat geschrieben: und der Server mit 2x2800 MHz läuft, wo 2x1000 eigentlich reichen würden.
Huh? Was ist das für eine CPU?

Aber es stimmt schon, die vorhandene Rechnerkapazität voll Ausschöpfen könnte insgesamt Ökologischer sein als die vielen einzelnen PCs die sich 95% der Zeit langweilen. Trotzdem würde ich nicht wollen das andere meinem PC mitbenutzen, auch wenn ich im Gegenzug ebenfalls fremde Ressourcen nutzen könnte. Nichtmal wenn ich Geld dafür bekäme.
Leonidas
Python-Forum Veteran
Beiträge: 16025
Registriert: Freitag 20. Juni 2003, 16:30
Kontaktdaten:

burli hat geschrieben:
Leonidas hat geschrieben: und der Server mit 2x2800 MHz läuft, wo 2x1000 eigentlich reichen würden.
Huh? Was ist das für eine CPU?
AMD Athlon 64 X2 5600+. Man kann ihn durchaus auch auf 1000 MHz heruntertakten.
My god, it's full of CARs! | Leonidasvoice vs (former) Modvoice
burli
User
Beiträge: 1156
Registriert: Dienstag 9. März 2004, 18:22

Leonidas hat geschrieben: AMD Athlon 64 X2 5600+. Man kann ihn durchaus auch auf 1000 MHz heruntertakten.
Achso, man "kann". Aber grundsätzlich technisch vorgesehen ist es nicht. Lediglich permanent über Bios Einstellungen oder irgendwelche Softwaretricks.

Man kann ihn aber nicht dynamisch im Betrieb von 2800 auf 1000 runtertakten und bei Bedarf wieder hoch wie zb bei Notebook Prozessoren, oder? (bei meinem T2080 von 1,76GHz auf 800MHz oder meinem E4300 von 1800 auf 1200)
Leonidas
Python-Forum Veteran
Beiträge: 16025
Registriert: Freitag 20. Juni 2003, 16:30
Kontaktdaten:

burli hat geschrieben:Achso, man "kann". Aber grundsätzlich technisch vorgesehen ist es nicht. Lediglich permanent über Bios Einstellungen oder irgendwelche Softwaretricks.

Man kann ihn aber nicht dynamisch im Betrieb von 2800 auf 1000 runtertakten und bei Bedarf wieder hoch wie zb bei Notebook Prozessoren, oder? (bei meinem T2080 von 1,76GHz auf 800MHz oder meinem E4300 von 1800 auf 1200)
Natürlich ist das vorgesehen, auch ohne Hacks. Die Techniken heißen unter anderem SpeedStep bei Intel und Cool'n'Quiet sowie PowerNow! bei AMD. Und mit powernow-k8 und einigen Kernel-Features ist das auch unter Linux kein Problem. Da habe ich verschiedene Governors die entscheiden wie schnell die CPU sein soll.

Edit: Das Gentoo Wiki zeigt ziemlich detailiert wie das geht. In einem Debian Etch-System sollte das out-of-the-box funktionieren, in anderen Distributionen, insbesondere für den Desktop erst recht.
My god, it's full of CARs! | Leonidasvoice vs (former) Modvoice
burli
User
Beiträge: 1156
Registriert: Dienstag 9. März 2004, 18:22

Die Techniken kenn ich. Ich hätte nur nicht erwartet das man einen Prozessor in einem so weiten Bereich takten kann
Leonidas
Python-Forum Veteran
Beiträge: 16025
Registriert: Freitag 20. Juni 2003, 16:30
Kontaktdaten:

burli hat geschrieben:Ich hätte nur nicht erwartet das man einen Prozessor in einem so weiten Bereich takten kann
Ja, da war ich auch etwas überrascht. Zuerst habe ich auf die Bogomips geschaut um sie mit meinem Core 2 Duo zu vergleichen und war verwundert das der weniger als meine ~3000 Bogomips pro Core. Mit 2800 MHz steigt der dann auf ~7000 Bogomips, was schon realistischer ist.

Ja, mir ist klar das Bogomips kein Benchmark sind, ich wollte nur einen sehr primitiven Vergleich.
My god, it's full of CARs! | Leonidasvoice vs (former) Modvoice
heraklit
User
Beiträge: 31
Registriert: Donnerstag 8. März 2007, 16:50

Die Idee ist natürlich ganz nett, aber deren Umsetzung eher unwahrscheinlich.
Mögliche Gegenargumente sind:
- Sicherheitlöcher: Hacker, die es schaffen, in den "Supercomputer" einzudringen, können auf den sämtlichen Datenbestand zugreifen.
- Verlust der Identität jedes einzelnen. Durch einen derartigen Computer würden alle Benutzer gleichgeschaltet. Gleiches Betriebssystem, gleiche zur Verfügung stehenden Programme, gleiche Leistung, ...
- Datenkontrolle der Benutzer ist ohne weiteres möglich; damit erfolgt eine Überwachung aller Benutzer. So ein Rechner ist natürlich zentral gesteuert.
- Stromausfälle und technische Defekte führen zu einem Totalausfall.
- Der Bau eines solchen Computer wird sich nicht ohne weiteres finanzieren lassen. Da fragt man sich, ob die Anschaffung einzelner Computer nicht günstiger wäre.
Positive Argumente gibt es natürlich auch:
- Gesunkener Platzbedarf für das Individuum
- Dem Benutzer wird die Einrichtung und Wartung des Systems abgenommen.
burli
User
Beiträge: 1156
Registriert: Dienstag 9. März 2004, 18:22

heraklit hat geschrieben: - Verlust der Identität jedes einzelnen. Durch einen derartigen Computer würden alle Benutzer gleichgeschaltet. Gleiches Betriebssystem, gleiche zur Verfügung stehenden Programme, gleiche Leistung, ...
- Dem Benutzer wird die Einrichtung und Wartung des Systems abgenommen.
Das würde ich jetzt gar nicht mal so sehen. Man könnte ja einen "virtuellen" PC anbieten, ähnlich VirtualBox, auf dem der User installieren kann was er will. Das ganze halt nur über ein schnelles Netzwerk. So war es denke ich auch vom OP gemeint
Antworten