100.000 Dollar verdienen?
Für 10.000.000 Stellen reichen 10MB locker 100 GB aber nicht für die Rechenvariabeln. Kein PC kann auf direktem Weg so große Zahlen verarbeiten, -sich auch nich merken und damit fangen die Probleme an.
Die Berechnung findet also mehr auf den Festplatten als in der CPU statt.
diese hat mehr die Aufgabe die richtige Stelle auf der richtigen Festplatte zu finden.
Die Berechnung findet also mehr auf den Festplatten als in der CPU statt.
diese hat mehr die Aufgabe die richtige Stelle auf der richtigen Festplatte zu finden.
Ein Bit ist die kleinste Software-einheit, ein falsches Bit macht aus Software Bugware...
-
- Beiträge: 17389
- Registriert: 10.11.2004 03:22
naa... wenn du das auf der festplatte berechnen willst anstatt im hauptspeicher, dann wirste nie fertig, weil vorher die sonne verlischt.
aber der wettbewerb ist eh was für institute, nicht für einzelpersonen.
ich nehm doch jetzt keinen kredit über 50.000 auf (wenns das reicht) um mir die benötigte hardware zu kaufen, nur damit irgendjemand ne woche vor mir fertig ist und mir die 100.000 vor der nase wegschnappt... (und das ist dann auch noch genau die woche, die die bank zum bewilligen des kredites brauchte, ich kenn doch murphy)
aber der wettbewerb ist eh was für institute, nicht für einzelpersonen.
ich nehm doch jetzt keinen kredit über 50.000 auf (wenns das reicht) um mir die benötigte hardware zu kaufen, nur damit irgendjemand ne woche vor mir fertig ist und mir die 100.000 vor der nase wegschnappt... (und das ist dann auch noch genau die woche, die die bank zum bewilligen des kredites brauchte, ich kenn doch murphy)
Der Narr denkt er sei ein weiser Mann.
Der Weise weiß, dass er ein Narr ist.
Der Weise weiß, dass er ein Narr ist.
-
- Beiträge: 6291
- Registriert: 29.08.2004 08:37
- Computerausstattung: Hoffentlich bald keine mehr
- Kontaktdaten:
Ähm ja, ich würde das sowieso nur Hardwareseitig machen, d.h. mit einem Volladdierer(natürlich angemessen hohe bitzahl).
[EDIT]
Darf eigentlich die NASA da mitmachen? Dann haben wir sicher schon lange verloren mit deren Supercomputer.
[EDIT]
Darf eigentlich die NASA da mitmachen? Dann haben wir sicher schon lange verloren mit deren Supercomputer.
Angenommen es gäbe einen Algorithmus mit imaginärer Laufzeit O(i * n), dann gilt O((i * n)^2) = O(-1 * n^2) d.h. wenn man diesen Algorithmus verschachtelt ist er fertig, bevor er angefangen hat.
In 4000 Jahren wären die 100.000 $ aber sicherlich dank Inflation kaum noch was wert 
Also sollten wir was finden was ein wenig schneller rechnet

Also sollten wir was finden was ein wenig schneller rechnet



ZeHa hat bisher kein Danke erhalten.
Klicke hier, wenn Du wissen möchtest, woran ihm das vorbeigeht.
Wofür gibt's denn "Distributed Computing" ("verteiltes Rechnen")?
So ähnlich wie SETI@Home, das über den BOINC Manager läuft.
Es gibt aktuell ein Projekt, "PrimeGrid", das sich früher damit beschäftigt hat, Primzahlen zu erforschen und zu ermitteln.
Die Idee: Ungenutze Rechenkapazitäten (wenn man längere zeit nicht amComputer sitzt, oder wenn z. B. der Bildschirmschoner angeht, etc.) werden von Millionen von Usern ausgentzt: Ein Programm läd vom Server zu bearbeitende Aufgaben herunter, rechnet ein paar Stunden daran herum und läd die Ergebnisse wieder hoch. SETI@Home etwa, beschäftigt sich mit der Suche nach extraterrestrischen Signalen (außerirdischen Signalen).
So ähnlich wie SETI@Home, das über den BOINC Manager läuft.
Es gibt aktuell ein Projekt, "PrimeGrid", das sich früher damit beschäftigt hat, Primzahlen zu erforschen und zu ermitteln.
Die Idee: Ungenutze Rechenkapazitäten (wenn man längere zeit nicht amComputer sitzt, oder wenn z. B. der Bildschirmschoner angeht, etc.) werden von Millionen von Usern ausgentzt: Ein Programm läd vom Server zu bearbeitende Aufgaben herunter, rechnet ein paar Stunden daran herum und läd die Ergebnisse wieder hoch. SETI@Home etwa, beschäftigt sich mit der Suche nach extraterrestrischen Signalen (außerirdischen Signalen).
PB 4.30
Code: Alles auswählen
Macro Happy
;-)
EndMacro
Happy End