Seite 1 von 2

Verfasst: Montag 25. Februar 2008, 22:28
von Leonidas
burli hat geschrieben:Achso, man "kann". Aber grundsätzlich technisch vorgesehen ist es nicht. Lediglich permanent über Bios Einstellungen oder irgendwelche Softwaretricks.

Man kann ihn aber nicht dynamisch im Betrieb von 2800 auf 1000 runtertakten und bei Bedarf wieder hoch wie zb bei Notebook Prozessoren, oder? (bei meinem T2080 von 1,76GHz auf 800MHz oder meinem E4300 von 1800 auf 1200)
Natürlich ist das vorgesehen, auch ohne Hacks. Die Techniken heißen unter anderem SpeedStep bei Intel und Cool'n'Quiet sowie PowerNow! bei AMD. Und mit powernow-k8 und einigen Kernel-Features ist das auch unter Linux kein Problem. Da habe ich verschiedene Governors die entscheiden wie schnell die CPU sein soll.

Edit: Das Gentoo Wiki zeigt ziemlich detailiert wie das geht. In einem Debian Etch-System sollte das out-of-the-box funktionieren, in anderen Distributionen, insbesondere für den Desktop erst recht.

Verfasst: Montag 25. Februar 2008, 23:26
von burli
Die Techniken kenn ich. Ich hätte nur nicht erwartet das man einen Prozessor in einem so weiten Bereich takten kann

Verfasst: Montag 25. Februar 2008, 23:50
von Leonidas
burli hat geschrieben:Ich hätte nur nicht erwartet das man einen Prozessor in einem so weiten Bereich takten kann
Ja, da war ich auch etwas überrascht. Zuerst habe ich auf die Bogomips geschaut um sie mit meinem Core 2 Duo zu vergleichen und war verwundert das der weniger als meine ~3000 Bogomips pro Core. Mit 2800 MHz steigt der dann auf ~7000 Bogomips, was schon realistischer ist.

Ja, mir ist klar das Bogomips kein Benchmark sind, ich wollte nur einen sehr primitiven Vergleich.

Verfasst: Dienstag 26. Februar 2008, 08:14
von heraklit
Die Idee ist natürlich ganz nett, aber deren Umsetzung eher unwahrscheinlich.
Mögliche Gegenargumente sind:
- Sicherheitlöcher: Hacker, die es schaffen, in den "Supercomputer" einzudringen, können auf den sämtlichen Datenbestand zugreifen.
- Verlust der Identität jedes einzelnen. Durch einen derartigen Computer würden alle Benutzer gleichgeschaltet. Gleiches Betriebssystem, gleiche zur Verfügung stehenden Programme, gleiche Leistung, ...
- Datenkontrolle der Benutzer ist ohne weiteres möglich; damit erfolgt eine Überwachung aller Benutzer. So ein Rechner ist natürlich zentral gesteuert.
- Stromausfälle und technische Defekte führen zu einem Totalausfall.
- Der Bau eines solchen Computer wird sich nicht ohne weiteres finanzieren lassen. Da fragt man sich, ob die Anschaffung einzelner Computer nicht günstiger wäre.
Positive Argumente gibt es natürlich auch:
- Gesunkener Platzbedarf für das Individuum
- Dem Benutzer wird die Einrichtung und Wartung des Systems abgenommen.

Verfasst: Dienstag 26. Februar 2008, 08:31
von burli
heraklit hat geschrieben: - Verlust der Identität jedes einzelnen. Durch einen derartigen Computer würden alle Benutzer gleichgeschaltet. Gleiches Betriebssystem, gleiche zur Verfügung stehenden Programme, gleiche Leistung, ...
- Dem Benutzer wird die Einrichtung und Wartung des Systems abgenommen.
Das würde ich jetzt gar nicht mal so sehen. Man könnte ja einen "virtuellen" PC anbieten, ähnlich VirtualBox, auf dem der User installieren kann was er will. Das ganze halt nur über ein schnelles Netzwerk. So war es denke ich auch vom OP gemeint

Verfasst: Dienstag 26. Februar 2008, 11:48
von Nikolas
Durch einen derartigen Computer würden alle Benutzer gleichgeschaltet.
Deine Wortwahl ist ziemlich schlecht :roll: Das hört sich so an, als ob ich zum Zombi werden würde, wenn ich mich nicht mehr gegen Windows entscheiden darf.

Zum einen stimmt das nicht, weil es sicher vom Geldbeutel jedes einzelnen abhängt, wie viel Zeit man an diesem Computer bekommt und andererseits wäre damit doch eines der Ziele der Hacker erfüllt: Freier Zugang zu Technologie ohne Ansehen der Person.
Das mit den Daten ist noch was anderes, aber ein bischen ComputerKommunismus ist doch nichts schlechtes.

Den Schutz vor Angreifern sehe ich nicht so dramatisch. Wenn man die Zeit, die man jetzt für den Schutz sämtlicher OS und Konfigurationen anwendet in diesen Computer steckt, dürfte so was nach aussen hin zu schützen sein. Und wenn man sämtliche Datenbestände verschlüsselt, sollte das machbar sein. (große Rechenzentren, die heute schon laufen, sind anscheinend auch sicherbar.)

Stromausfälle könnte man durch redundante Datenhaltung und separate Rechner abfangen, ein paar Notstromaggregate sind auch bezahlbar. (wie schützt du denn deinen PC zu Hause vor Stromausfällen?)

Die Kontrolle der Admins wird da eher das Problem sein. Das praktische am Internet, dass es von niemandem, egal in welcher Position, abgeschaltet werden kann, wäre hier verloren.
Auch wenn die aktuelle Regierung auf diese Daten nicht zugreifen würde, besteht die Gefahr, dass eine zukünftige es macht und was möglich ist, wird irgendwann auch gemacht.

Diese Idee des zentralen Rechners ist ja eigentlich auch nichts neues. Das ist ja nichts anderes als das Konzept eines angemieteten Servers, nur das man hier sämtliche Daten dort lagert und nicht nur die, die man veröffentlichen will.

Verfasst: Dienstag 26. Februar 2008, 12:11
von heraklit
Ist ja alles schön und gut. Nur scheinen manche zu übersehen, dass es solche Art "Supercomputer" schon mal gab, d.h. Großrechner vor ca. 50 Jahren, an denen sich die Benutzer eingeloggt haben, weil ein eigener Rechner schlicht zu teuer war. Heute ist es doch eher anders herum. Die Rechner werden immer kleiner, schneller, preiswerter und werden immer vielseitiger eingesetzt. Dabei ist eher eine zunehmende Vernetzung als eine Zentralisierung zu beobachten. Die Entwicklung ist eher gegenläufig zu dem Szenario, welches hier dargestellt wird.
Gruß
P.S.: Jeder der einen eigenen Rechner besitzt, hat mit Sicherheit mehr Freiheiten, als bei einem Zentralrechner. Von daher sehe ich überhaupt keinen Bedarf zur Zentralisierung.

@Nicolas:
- Jedes Sicherheitssystem hat seine Schwächen.
- Hacker sehen ihr Tun eher als Herausforderung. Wieso sollten sie am "Freien Zugang zu Technologie ohne Ansehen der Person" interessiert sein? Vielleicht gibt es derartige Hacker, aber das trifft ja wohl nicht für jeden zu...
- Zitat "Stromausfälle könnte man durch redundante Datenhaltung und separate Rechner abfangen, ein paar Notstromaggregate sind auch bezahlbar."
Jetzt musst du mir nur noch sagen, wer das alles finanzieren soll. Etwa der Steuerzahler, der daheim eh einen eigenen Computer besitzt. Für diesen hat so ein Zentralrechner doch keine Vorteile, und wenn ja, welche?

Verfasst: Dienstag 26. Februar 2008, 12:44
von BlackJack
@Nikolas: Der Schutz vor Angreifern ist sogar *sehr* dramatisch. Der Angriff ist ganz einfach: Ein Gesetz, das den Betreiber des Supercomputers dazu verpflichtet alle Aktivitäten zu protokollieren und dem BKA eine Schnittstelle für Filterprogramme zu bieten. Gegen Terrorismus und Kinderpornographie muss man so etwas doch machen können. Wer sollte dagegen sein, hat ja keiner was zu verbergen, oder?

Selbst ohne das Gesetz reicht es, wenn jemand ins Rechenzentrum eindringen kann, wobei "jemand" hier durchaus BKA, BND, MAD, oder vielleicht sogar ausländische Behörden sein können, und dort Schnüffelsoftware platziert. Und "eindringen" kann auch indirekt bedeuten, dass einer der Admins ein Foto von seiner Tochter auf'm Spielplatz geschickt bekommt, mit einem Brief "Wenn Du willst, dass Deine Tochter weiterhin *über* dem Sand spielt, machst Du $DIESES und $JENES."

Thema Ausfallsicherheit: Terroristen und Saboteure könnten Interesse daran haben den Supercomputer lahm zu legen. Anschläge direkt auf den Rechner, oder ausserhalb gegen die Infrastruktur können die Folge sein. Nicht zu vergessen: "der Bagger ist der grösste Feind des Internets" - es sind schon einige Leitungen zusammen gebrochen weil's ein Versehen bei Bauarbeiten gab.

Stromausfall zu Hause hat keine so gravierenden Folgen, wie Einer, der auf einen Schlag die Rechenleistung von allen Privatpersonen in Deutschland oder Bayern und vielleicht sogar kleiner Unternehmen killt.

Man hat mit so einem Supercomputer halt in jeder Hinsicht einen "single point of failure" mit allen Konsequenzen, die sich daraus ergeben.

Internet abschalten ist in Grenzen schon möglich. Man denke an die Unterseekabel im nahen Osten, die in letzter Zeit mysteriöserweise kaputt gegangen sind, und den Internetverkehr aus der Region ganz schön ausgebremst haben. Das Internet ist sehr robust gegen zufällige Ausfälle. Wenn man gezielt Knoten abschaltet, kann es in die Knie gezwungen werden. Nicht komplett, aber es lässt sich bestimmt in Teilnetze zerschlagen.

Ich denke es wird beides geben. Die Supercomputer, wo sich Leute, die von Zeit zu Zeit richtig Rechenleistung brauchen welche mieten können, und umgekehrt das ausnutzen von Kapazitäten bei Privatleuten durch Projekte wie BOINC. Und was das Stromsparen angeht, auch vermehrt Leute die Rechner nicht mehr nach Ghz kaufen, sondern schauen was sie wirklich an Rechenleistung *brauchen* wenn sie Briefe und E-Mails schreiben. Der EE-PC kam ja ganz gut an, und kleine, leise Server für's Fernsehen und Musikhören sind ja auch nicht unbeliebt.

Verfasst: Dienstag 26. Februar 2008, 12:50
von BlackJack
Zur Frage im Titel dieses Themas: Ja, da bin ich dafür. Jeder sollte einen haben. :-D

Verfasst: Dienstag 26. Februar 2008, 15:10
von mkesper
BlackJack hat geschrieben:Zur Frage im Titel dieses Themas: Ja, da bin ich dafür. Jeder sollte einen haben. :-D
Verglichen mit den bereits erwähnten Mainframes aus den 60ern haben wir alle welche Zuhause.

Verfasst: Dienstag 26. Februar 2008, 15:15
von burli
Ich schätze mal ein moderner PC hat bedeutend mehr Leistung als damals für das gesamte Apollo Programm zur Verfügung stand. Die sind ja mir der Rechenleistung eines C64 zum Mond geflogen. Und ich glaub nichtmal das

Verfasst: Dienstag 26. Februar 2008, 15:40
von Rebecca
Die Leute, die die Top 500-Liste erstellen, erzaehlen immer: Ein Laptop waere vor 8 bis 10 Jahren gerade noch in der Top 500-Liste drin gewesen, und vor weiteren 6-8 Jahren an der Spitze der Liste. :D (Quelle)
Die ersten Roehren-Kisten kamen noch nicht einmal an einen billigen Taschenrechner von heute ran...

Verfasst: Dienstag 26. Februar 2008, 16:00
von Nikolas
@Nikolas: Der Schutz vor Angreifern ist sogar *sehr* dramatisch.
Ich habe mich auf Angriffe bezogen, die wirklich von aussen kommen.
Das ein Admin oder eine Regierung die Möglichkeit einer Überwachung und Manipulation hat, habe ich doch explizit erwähnt...
Jetzt musst du mir nur noch sagen, wer das alles finanzieren soll. Etwa der Steuerzahler, der daheim eh einen eigenen Computer besitzt. Für diesen hat so ein Zentralrechner doch keine Vorteile, und wenn ja, welche?
Es stand doch nirgendwo was davon, dass dieser SuperComputer staatlich sein soll. Wenn du deine Seite über einem angemieteten Server publizierst, zahlst du doch natürlich immer auch für Reparatur und Techniker, die (im Idealfall) immer neben dem Server sitzen und (im Idealfall) wochenlang Däumchen drehen.

Ich habe letztens in der C't (?) gelesen, dass jetzt auch Amazon damit beginnt, Rechenkapazität zu verkaufen.

Interessant wäre doch ein dezentraler SuperComputer, der aber zentral gesteuert wird. Also eine Erweiterung von BOINC, in der ein Client nicht nur alle paar Tage mit dem Master redet, sondern alle paar Minuten neue Befehle bekommt. So dass ich mir hier ein kleines Programm mit viel Rechenbedarf schreibe, dass dann recht schnell verteilt und berechnet wird. Die benötigte Bandbreite könnte ein Problem sein, aber wenn mein Programm in einer abgeschotteten Sandkiste auf den Clients des Netzwerkes läuft, dürfte wenigstens niemand groß was dagegen haben.
Und wenn ich da ein paar 10.000 Rechner habe, kann ich auch mein Programm so zerstückeln, dass keiner der Clients verstehen kann, was ich da eigentlich gerade rechnen lasse.

Verfasst: Dienstag 26. Februar 2008, 17:00
von mkesper
Nikolas hat geschrieben:Interessant wäre doch ein dezentraler SuperComputer, der aber zentral gesteuert wird. Also eine Erweiterung von BOINC, in der ein Client nicht nur alle paar Tage mit dem Master redet, sondern alle paar Minuten neue Befehle bekommt.
Erinnert mich irgendwie an ein Botnetz.

Verfasst: Dienstag 26. Februar 2008, 17:42
von Nikolas
Stimmt. Und Python wäre ziemlich passend um so was zu schreiben. Eine IRC Komponente sollte es irgendwo geben und wenn man sauber schreibt, sollte man sich keine Gedanken darüber machen müssen, auf welchem OS der Code jetzt eigentlich ausgeführt wird.

Damit sollte es doch recht einfach sein, über einen IRCChat Python Skripts auf anderen Rechnern auszuführen und dessen Standardausgabe auf den Chat umzuleiten.

Ist eigentlich eine interessante Sache. So ein Programm zu Kommunikation zu schreiben wird aber wahrscheinlich deutlich schwerer sein, als die Verteilung der Berechnung, die Reaktion auf hinzukommende und sich ausschaltende Rechner und ähnlichem.

Verfasst: Dienstag 26. Februar 2008, 21:02
von Leonidas
Nikolas hat geschrieben:Ich habe letztens in der C't (?) gelesen, dass jetzt auch Amazon damit beginnt, Rechenkapazität zu verkaufen.
Richtig, nennt sich Elastic Compute Cloud (EC2) passend dazu auch den Speicherplatz auf S3.