N00B hat geschrieben:Die meisten ""Sicherheitslücken"" sind so unpraktikabel, und es müssen dermaßén viele Umstände zusammen treffen, daß es sich mehr um Panikmache als um echte Sicherheitslücken handelt. (ich hab mich schon vor 10 Jahren öfter auf Packetstorm usw rumgetrieben ..... da mich solche Dinge interessieren) Eine echte Sicherheitslücke war damals der Mist mit XP vor SP2, als mann nicht mal einen Browser starten musste, und schon war das System infiziert.
Also XP mit SP2 oder SP3 drauf, einen Router, eine anständige, schnelle Software Firewall (nur damit ich weiß, was eine Verbindung nach aussen aufbauen will ...... und vor allem wann, und was für Daten versendet werden) Closed Source Software wie die Pest meiden, Portable Open Source Software benutzen, und vor allem das Gehirn einschalten beim surfen, denn das größte Sicherheitsrisiko ist der Mensch der den PC bedient.
Ganz ehrlich - du hast schon verloren. Open Source ist nicht das Allheilmittel - ich errinnere jetzt da gerne an Hearthbleed-Lücke. Lustig ist aber, das du sagst, das man Closed Source Software meiden soll, dann aber so Konsequent zu sein, ausgerechnet Windows zu benutzen - das hat was. Gehirn einschalten beim surfen bringt dir auch recht wenig, wenn mal eine bekannte Seite geknackt wird und diese Schadsoftware verteilt. Das ist auch schon mehr als einmal passiert. Hirn einschalten ist zwar prinzipiell eine gute Idee, aber alleine kommt man damit auch nicht weit.
All dieser Update Wahn ist perfekt um bei jedem Update gesammelte Daten zu übertragen ..... ich jedenfalls würde es so machen wenn ich Microsoft währe, oder jemand der auf Daten sammeln Wert legt.
JA wir sind wieder mal soweit. Mal ehrlich: Warum zur Hölle nutzt du Windows? Masochistisch veranlagt? Ja, der NSA-Skandal ist recht frisch und ja, sie grabschen Daten wo sie nur können. Aber glaubst du ernsthaft, die sind so blöd, eine Spionagesoftware auf sämtlichen PCs unterzubringen, damit sie gefunden werden? Warum konnten die wohl Jahrzehnte lang unbeteiligt arbeiten? Weil sie die Server "angegriffen" haben und die Gesetzte der USA die Firmen zum schweigen verpflichtet. Als User bekommst du das nicht mit. Es gibt genügend MS-Hasser die MS liebend gerne einen geheimen Datenstrom beweisen möchten - und die auch Ahnung von der Materie haben. Es hat bis jetzt nicht ein einziger geschafft. Nach Jahrzehnten nicht.
MS ist nur zu blöd entsprechende Optionen anzubieten. Bei Google weis ich bspw. 100% das sie Private Daten ausschnüffeln - das ist ihr Produkt, das sie an die Werbeindustrie verkaufen. MS hat andere Strategien - auch wenn sie mit OneCloud da teilweise in ähnliche Richtung gehen - aber das muss ich jetzt wirklich nicht nutzen.
Hier wären wir tatsächlich wieder bei Hirn einschalten. Die NSA würde niemals einen "SpionagePatch" für alle raushauen. Wenn sowas kommen solte, dann wäre das sehr speziell auf gewisse Regionen und Personen begrenzt. Gibt ja einige Viren, die sich selbst vernichten, wenn sie gewisse Sachen feststellen (bspw. bestimmte Zeitzone). Rate mal wieso. Damit sie nicht so schnell gefunden werden.
Die Diskussion wegen Auspionieren ist so alt wie Windows. Wie war das damals zu XP-Zeiten - als erstes mal das System mit XPAntiSpy zerschießen lassen, damits läuft.
Und es werden noch genügend Sicherheitlücken gefunden, die kommen halt in den unterschiedlichsten Formaten daher. Viren verstecken sich eher in anderen Formaten, wie PDF, DOC, Bilder, Videos. Und jedes aktuelles System hat Routinen, um diese Formate zu öffnen, die auch von vielen Programmen genutzt werden.
Ich hab in 12 Jahren kein einziges Windows Update gezogen (ausser Service Packs) ich hab seit 5 Jahren kein überladenes, ausbremsendes, schlecht geschriebenes, ressourcenfressendes Anti Virus Programm mehr laufen.
In 12 Jahren hab ich nur False Positives, teils wurde bei meiner eigenen Software angeschlagen, (beim compilen, oder ausführen) von einem AV Version Update zum anderen, bei Software die ich seit Jahren benutze, und die Open Source ist.
Dieser Sicherheitslücken Wahn und dieser ganze AV Quatsch ist nichts anderes als Panikmache um Geld zu machen.........sowas wird auch ausserhalb vom Internet betrieben........grade derzeit

.......mit Waffen & ÖL kann mann viel Geld verdienen.
Sorry, aber Argumente wie "es ist nie was passiert" ist so ziemlich das dämlichste Argument, das man bringen kann. Ich befestigte die Ladung im Lastwagen seit Jahrzehnten so, warum soll ich sie auf einmal festbinden? Völlig unnötiger Wahn!
Die heutigen Systeme sind schnell genug ? Wo Bitte ? wenn die Software gleichzeitig mit Absicht immer langsamer und überladener wird ? (Du würdest dich wundern wie schnell mein uraltes Single Core 1,2ghz Notebook mit 4200upm HD und älteren Versionen ist

)
Wir sind schon wieder bei Hirn einschalten. Bau mal eine SSD ein und du wirst merken, wie langsam die Kiste überhaupt ist. Aber das würde ich nicht mit XP machen, da das Ding überhaupt nicht richtig damit umgehen kann.
Außerdem machst du in deinen Optimierungswahn einen großen Fehler. Du optimierst nur auf Sachen die du messen kannst. Es gibt da aber durchaus noch andere Faktoren, die du völlig unberücksichtigt lässt. Sicherheit bspw. Das kann man nicht messen (oder gibt mal eine Maßeinheit für Sicherheit an). Kompatiblität. Auch das lässt sich schwer messen. Liest man ja hier in diesen Thread, das sich dein Windows komisch verhält und nicht mehr normal. Offensichtlich überoptimiert. Wir leben fast in Jahr 2016, nicht mehr 1986. Damals musste man primär auf Geschwindigkeit gehen, weil die Geräte unter aller sau lahm waren. Heute kann man sich den Luxus leisten, auf anderes mehr Rücksicht zu nehmen.
Guck ich habe von 2003 bis 2006 mit 512MB Ram gelebt, und einem Athon XP 2004, ich konnte mit Firefox wunderbar schnell surfen, mit mehreren offenen Tabs, und das trotz AV Software (damals war AV Software halt noch nicht ein überladener Müll, der noch 2309324934893 andere Dinge halbherzig versucht, statt sich auf das wesentliche zu konzentrieren) Der gesammt Ram Verbrauch wurde nie kritisch (um FF mal auf 240mb und mehr zu kriegen, musste ich schon einen Monat surfen mit 50 Tabs gleichzeitig) nur wenn ich eine paar gejointe Wordlists nach Doppelten scannen lassen habe.
Wie sieht es denn heutzutage aus ?
Firefox (Blank ohne Pluigins) starten und schon mal 80MB Ram Verbrauch.
Und weist du wieso? Weil das Ding immer mehr können muss. Schau dir mal die Webseiten an, die immer mehr brauchen. 80mb? Und? Wo ist das Problem? 4GB Ram sind aktueller minimumstandard bei PCs. 8GB dürften wohl die meisten Geräte haben - sogar die Bürokisten.
Ok 5 Min surfen auf ebay,youtube etc .... Ram Verbrauchg mindestens 240MB ! danach die Tabs schliessen und 2 Min warten, und siehe da, der Ram verbrauch ist nicht mal ansatzweise wieder auf dem Ursprungswert ! Und da kann ich in den Cache Einstellungen unter FF einstellen was ich will. Und je mehr Ram FF grade verbraucht, und je länger FF läuft, desto träger reagiert es auf Right Clicks, desto träger der Ping usw usw
Ganz ehrlich - noch nie was gemerkt von und ich setzte nur FF ein. Hast du da auch schon wieder rumkonfiguriert? Warum FF bspw. den Ram nicht freigibt? Warum sollte es? Wenn es gut programmiert ist, hält es die Daten erstmal in Speicher, falls du wieder auf die gleiche Seite raufgehst - was nicht unwahrscheinlich ist. Erst wenn neue Resourcen geladen werden müssen, würde ich die alten aus den Speicher schmeißen und durch die neuen ersetzen. Wäre bspw. eine sehr gute Strategie um die Geschwindigkeit zu erhöhen. Wie gesagt: Ein leerer Speicher ist ein verschwendeter Speicher.
Eine Optimierung in niedrigen RAM-Verbrauch ist schlicht einfach nicht nötig. Selbst 2GB-Kisten würden nicht ins Schwitzen geraten.
Ok nehmen wir mal Adobe Flash.
Rate mal, warum Flash auch gerade stirbt? Zum anderen auch, weil viele Funktionen in HTML übernommen wurden. Was sicherlich dazu beiträgt, das FF immer größer und Speicherhungriger wird.
Ich hab hier noch einen alten Dell Latitude X300 mit XP, 640MB Ram und einem Intel Single Core Prozessor mit 1,2ghz liegen. Bis vor ca 2 Jahren konnte ich damit noch im Vollbild auf YT 480p ruckelfrei laufen lassen, heute geht das gerade noch mit 360p, und an dem System wird nichts geändert (ausser halt Flash Updates, und eine neuere Portable FF Version wenn es anders ncht geht) nichts neu installiert, und das XP läuft noch nach 7 Jahren so schnell wie am ersten Tag...die Startzeit von XP ink kompletten laden vom Tray (im Gegensatz zu Vista usw gaukelt einem XP nicht vor das gewisse Sachen schon geladen sind.....Dienste verspätet starten, sowas kennt XP noch nicht) liegt bei nicht mal 20 Sekunden !
süß. Jetzt weis ich nicht, was sich in Hintergrund bei YT geändert hat. Bspw. anderer Codec. Auch möglich, das man aus Sicherheitsgründen Tricks ausgebaut hat, die man vorher genutzt hatte. Auch möglich, das die Videos mit HTML5 abgespielt werden, da hat nämlich FF ein Problem, der kann diesbezüglich keine Hardwarebeschleunigung.
Oder die NVidia Treiber, früher ein schönes simples kleines Tool dazu gehabt, doppelklick und ratz fatz hat mann alles wichtige vor sich gehabt. Dann irgendwann haben die die Monster IDE mit Monströsen Icons usw für Blinde geschrieben, Ram Verbrauch das 3 fache, und die zip locker 40% größer, die Startzeit von 2-3 Sek auf 30-50 Sek angesprungen und danach hat mann sogar weniger Optionen gehabt (1:1 Cloning über TV-Out, stufenloses stauchen & zoomen auf Overlay Gerät 2 sprich TV nicht mehr möglich) ich hab nicht umsonst eine alte GT6600 mit TV-Out und einer ganz gewissen Treiber Version laufen.
Sorry, aber wenn du so einen Dinosaurier laufen lässt

- TV Out - wie lange habe ich das schon nicht mehr gehört - wieviele Jahrzehnte ist das jetzt her

Dank HDMI ist das ganze eigentlich komplett ausgestorben. Ich kann aber NVIDIA gut verstehen, das sie lieber Resourcen in andere Sachen stecken, als einen TV-Out, den heute sowieso keiner mehr braucht.
Was ist mit Nero ?
Nero ist nach Nero 6.6 ein total überladenes, lahmes, Ram & HD Platz fressendes Monster das alles auf einmal versucht, und sehr viel davon nicht gut kann. Richtig üble Bloatware.
Also benutze ich immer noch die uralt Version, denn sie macht nur das was sie soll.
CD's & DVD's & Isos brennen, und das mit einer relativ schnellen und schlichten Oberfläche.
Hier hast du etwas nicht verstanden. CD's? DVD's? Was ist das? Wenn ich überlege, wie früher Media Markt und Co mit Rohlingen zugestellt waren, heute ist da kaum noch was, man muss sie suchen. Schon Ewigkeiten nichts mehr gebrannt. Die meisten neuen PCs haben nicht mal mehr Laufwerke, weil das eine veraltete Technologie ist. Zumal es haufenweise Programme gibt, die die Funktion genauso gut können und nichts kosten. Brenner sind schlicht am aussterben. Optische Medien überleben nur als Film-DVDs/BRs und bei Konsolen. Ansonsten nimmt man USB-Festplatten/Sticks oder NAS-Laufwerke.
Und hier hat Nero größere Weitsicht bewiesen. Ich hab auch früher über Nero geschimpft, weil es so aufgeblasen wurde. Aber heute seh ich das anders. Mit einen Brennprogramm wären sie schon lange pleite - von Fortschritt überrollt. Sie haben etwas sehr kleveres gemacht, zu einer Zeit als es noch nicht üblich war, haben sie sich den Multimedia-Bearbeitungs-Markt erschlossen. Wärst du ein Entscheidungsträger gewesen, dann gäbe es heute sicherlich kein Nero mehr.
Je weniger Ram belegt ist, desto weniger Fragmentierung herscht im Ram, je kleiner die MFT (XP hat nur einen Bruchteil der Dateien die Vista usw hat) ist, desto schneller der Zugriff (probiers aus, wirf mal 40.000 Dateien in einen Ordner, schliess das Fenster danach, surf bisschen rum, und öffne den Ordner........du wirst dich wundern wie lange das dauert)
Warum zur Hölle sollte ich 40.000 Dateien in einen Ordner schmeißen?! Da find ich doch nie wieder was. Ich pack das lieber in entsprechende Unterverzeichnisse...
Es geht immer schneller, und immer optimierter, also wieso nicht das maximale raus holen, wenn mann keine Nachteile im Alltag dadurch hat ?
Wie ist die Diskussion hier entstanden - achja, bei dir funktioniert was nicht, was bei anderen ohne Probleme funktioniert.... merkst du was? Und wie gesagt, man kann auf viele Arten optimieren, du optimierst nur auf "oberflächlichkeiten" die man messen kann.
Ich lasse mir keine Plug Ins auf suspekten Seiten andrehen (oder generell keine PlugIns, Flash muss reichen) ich starte keine exe die nicht aus seriöser Quelle stammt, ich hab ständig NoScript laufen, und kein Java auf meinem System installiert, und vor allem benutze ich keine gecrackte Software oder führe irgendwelche KeyGens aus.
Ach, das mach ich auch so. Bei mir ist Flash in Firefox auf "nur nach nachfrage" - ist zwar ein bischen nerfig, wenn man erstmal überall "nein" sagen muss, aber funktioniert besser. Nicht aus seriöser Quelle ist mittlerweile auch zu vergessen - da gehören leidern schon oft die Herstellerseiten dazu. Hab ich gemerkt. Gecrackte Software ist auch so ein Ding, genauso wie KeyGens. Wenn man das macht, muss man immer mit Überraschungen rechnen
Und eine kleine Registry ist sehr wohl wichtig für einen schnellen Zugriff.
Was glaubst du geht schneller, auf eine Datenbank mit 1.000.000 Einträgen zuzugreifen oder eine mit 54945834734873 ?
Dürfte Stark von der Datenbank abhängen. Ist sie gut, wirst du keinen großen unterschied merken.
Was glaubst du geht schneller, auf eine möglichst leeren HD, Daten abzurufen und zu speichern, oder auf einer vollen ?
Könnte das mit den Cache-Speicher der HDD abhängen? Könnte auch eher mit einer Fragmentierung des Speichers zusammen hängen, nicht mit den Füllstand.
Und hier hast du was nicht verstanden. Windows seit Vista lädt in den leeren Bereichen Daten vor, die man eventuell gebrauchen könnte. Wenn sie doch nicht gebraucht werden, wirds halt überschrieben und gut ist. Aber den ungenutzten Speicher als Cache zu missbrauchen halte ich erstmal für eine sehr gute Idee. Zumal mein System gerade mal mit 38% Speicher aktuell ausgelastet ist. Hier in Speicher zu optimieren, ist völliger Unsinn. Da ist es besser die Zeit zu nutzen, um die Kompatiblität zu erhöhen.
Installier doch mal auf einem XP, dieses .net Mist von Microsoft, danach haste 232323449348 Dateien mehr auf'm System, und 23892382938 mehr Registry Schlüssel und Einträge, und das merkt mann dann auch beim hoch fahren..........
Uhi, hast du die nachgezählt? Kann es auch sein, das XP etwas älter ist und deswegen damit nicht mehr gut klar kommt? Wobei mal ehrlich, ob das Ding in 20s oder eine Minute hochfährt - was solls.
Ich brauche keine SSD, ich sehe ja oft genug im Umfeld wie die Haltbarkeit solcher HD's ist

ich setze auf altbewährtes. 16K Cluster einrichten, auf möglichst großer HD, und dafür sorgen das Windows nicht ständig irgendwas treibt weil irgendwelche doofen Dienste rumspielen wollen.
Alte SSDs? Mittlerweile sind die genauso haltbar wie HDDs - wenn man sie richtig nutzt (geht halt mit XP nicht). Bisher ist mir nur meine älteste SSD verreckt, die eigentlich schon eh ausgemustert war

Hier merkt man schnell, wie gut die Backuplösungen sind.
Und XP ein Sicherheitsrisiko zu nennen, nur weil es alt ist, ist diese typische 0815 Medien Aussage (MS braucht Geld -> Software & Hardware & Werbeindustrie unterstützt Medien mit Geld->Medien sagen was Geldgeber will) und es wundert mich das so viele Leute die so viel begabter und besser im programmieren wie ich sind, auf diese Quatsch Panik mache und "Täglich 1000 Viren, Zombie Netze, Sicherheitslücken" Mythen rein fallen.
NEEEINNN man findet ja bspw. nicht genügen Lücken in Windows, die auch in alten Versionen vorhanden sind. Der Supportzeitraum ist zuende - es wird zeit alten Zeug lebewohl zu sagen und upzugraden. Wirst du früher oder später eh machen müssen, weil die neue Software nicht mehr zuverlässig auf XP laufen wird. Wobei hier MS eh vorbildlich ist. Kein anderer Hersteller hat so lange ein OS unterstützt, wie es MS aktuell macht und gemacht hat - mit Zeitansagen, wann der Support ausläuft etc.
Mit Angst macht mann Geld, und XP ist nach 12 Jahren mit SP3 so sicher wie nie zuvor, ein Rooter
hält die Ports dicht, Browser laufen in einer art Sandbox, und ein Virus muss erst mal durch Aufruf aktiviert werden (Dropper & Injector surf mal danach)..........und da soll ein Betriebsystem unsicher sein, nur weil es grade online über Port 80 ist ?
Es geht auch darum, wieviel Schaden entsteht, wenn mal was gewaltig schief läuft. Wäre jetzt nicht das erste mal, das eine Schadsoftware über verschiedene Stellen sich zugriff verschafft. Wobei viel rechte braucht man eigentlich nicht mehr. Man muss nur die Eigenen Dateien verschlüsseln können - und die kann der User ohne Probleme lesen. Es geht darum zu verhindern, das ungewollter Code nicht ausgeführt wird. Dazu muss man jedes Programm, das irgendwelche Dateien aus den Internet öffnen soll - sei es Bilder, Videos, Texte, PDFs, Docs etc. nicht durch eine Lücke anfällig ist. Dazu sollte man alle Software aktuell halten, die das machen - und dazu gehört schlicht und ergreifend das Betriebsystem dazu. Das öffnet viele Dateien. Wieviele Programme nutzen den IE als Renderengine, ohne das du es merkst. Macht ja PB ebenfalls. Und natürlich steht Software unter Beschuss, die jeder hat. Darum passiert ja deutlich mehr bei Windows als bei Linux/Mac - die letzteren sind schlicht viel weniger verbreitet.
Ich finde die Aussage, das man keine Updates braucht, recht lustig, wenn Viren wie Sasser schon 2004 das Gegenteil bewiesen haben. Der Beruhte immer noch auf eine Lücke, die damals geschlossen war. Es wäre eigentlich nichts passiert, hätten damals schon alle Updates gefahren.
Das größte Problem ist auch, das man die Lücken in Betrieb nicht merkt. Es läuft ja. Irgendwie. Leider. Würde die Kisten regelmäßig abstürzen, würde man sofort updaten. Dann wäre das Thema durch. Ich möchte aber nicht wissen, wieviele Probleme in Netz weg wären, wenn man regelmäßig updaten würde. Übrigens - der Router gehört auch dazu. Da findet man genügend kram, der auch schon ausgenutzt wurde und die Dinger hängen komplett in Netz. Es ist eigentlich überall das gleiche: halte die Scheiß Software Aktuell - es ist schlicht besser so.
p.s.: Das dir xXRobo_CubeXx dir recht gibt, würde mir zu denken geben - der ist mir zumindest nur durch Trollen aufgefallen
