Tuningtools, Windows XP, Windows Update, Sicherheitslücken

Hier kann alles mögliche diskutiert werden. Themen zu Purebasic sind hier erwünscht.
Flames und Spam kommen ungefragt in den Mülleimer.
Benutzeravatar
N00B
Beiträge: 122
Registriert: 11.07.2007 22:28

Tuningtools, Windows XP, Windows Update, Sicherheitslücken

Beitrag von N00B »

Danke das du mir geholfen hast Bisonte :) aber ich muss jetzt meine Tuning Tools in Schutz nehmen :lol:

Sorry für den Roman der jetzt kommt :lol:

Ich bin mir sicher das es nicht an den Tuning Tools (es sind bewährte, die keine neuen Reg Schlüssel erstellen, sie ändern nur was schon vorhanden ist) liegt, ich benutze TuneUp seit 2003 (die letzte die ich noch benutze und gut ist, Dank wenig Ram Verbrauch, keine Monster Icon Kitsch Vista Aero Option, und vor allem sinvollen Optionen ist die 2007) und ich hatte noch nie Probleme damit, es kann und macht nichts was Windows XP nicht sowieso schon anbietet (wenn mann an zig Orten Häckchen rein & raus macht)

Für mich ist ein Standard XP oder Standard Windows einfach nur schrecklich langsam (z.B MenuShowDelay ? Wer braucht das schon ? Runter auf 0ms :) ) überladen (lauter Dienste die kein Normal Bürger braucht laufen, oder es laufen welche die keiner braucht der ein Freak wie ich ist :lol: ) und unoptimiert.

XP ist halt noch aus einer Zeit als 256MB Ram Standard waren, und weil ich mich nicht durch 129023238 verschiedene Orte klicken will, damit XP trotz massig Ram (für XP seine Anforderungen)
den System Kern ständig auslagert, und der System Cache viel zu klein bemessen ist, nehme ich halt TuneUp (alles nach der 2007 ist überladen, braucht 23343 so lange zum starten, ist schrecklich unübersichtlich geschrieben, braucht zig mal so viel Ram) für solche Dinge, und dann sieht ein Vista/W7/W8/10 32Bit neben XP sehr alt aus, egal in was, XP ist dann extrem schnell, kein Wunder so wenig Dienste, eine kleine compakte Registry ~15MB und nur ein Bruchteil der Dateien.......dazu massig Cache Bereitstellung nach der Optimierung.

Für mich unnötigen Schwachsinn der nur ein Sicherheitsrisiko darstellt und/oder ausbremst wie z.b
Administrative Freigaben, Up&p, Qos schalte ich in 0 komma nichts damit ab.

War schon immer so drauf das Geschwindigkeit vor Optik geht (bis 2010 hab ich sogar nur die Win2000 Optik unter XP benutzt :lol: ) Animationen beim Ein & Ausblenden von Fenstern, Schriftenglättung, mit Schatten unterlegte Buchstaben, es gibt so viel Quatsch den Windows anbietet, aber im grunde nur unnötig ist und ausbremst, und total umständlich zum erreichen ist, damit mann den Quatsch mal abschalten kann.

Selbst mit dem lahmarschigen und umständlichen Explorer konnte ich mich in 20 Jahren nicht anfreunden, zu Dos Zeiten (hab das erste mal mit 1992 schon 3 x am Tag die HD Defragmentiert, und versucht das letzte Quäntchen Konventionellen Speicher durch Optimierung der Config .sys und Autoexec.bat raus zu kitzeln ohne Nachteile zu haben) hab ich mir irgendwann den Norton Commander geholt, und unter Windows dann den Windows b.z.w Total Commander, und mit nichts anderem arbeite ich auch seit 20 Jahren unter Windows. Weil alles damit einfach viel schneller geht.

Ich hab zu Win98 Zeiten durch rum experimentieren an RegKeys (alles per Hand) jede Woche mein Win98 geschossen :lol: und immer wieder was dabei gelernt (und vor allem das mann nicht Reg Schlüssel löschen sollte :lol: ) unter XP hab ich das nicht fertig gebracht, egal was ich in den letzten 12 Jahren eingestellt habe per TuneUp, SafeXP & TuneXP, ich hab für mich danach nie einen Nachteil entdecken können (alle Einstellungen werden vorher genau beschrieben) eher Vorteile.

Weniger Doofe unnötige Dienste die laufen, schlanke Registry, weniger Ram Verbrauch, größerer Cache, Zugriffszeiten der HD und von Windows selbst geringer, um einiges schnellerer Systemstart als bei unoptimierten XP usw usw

Was ich damit sagen will.

Nach 12 Jahren hab ich einfach genug Erfahrung im Umgang mit diesen 3 XP Tools, um garantiert die sinvollen Einstellungen treffen zu können.

Ich bleibe gerne bei altbewährtem (newer is not always better :) ) und bin mit der Funktionsbereitstellung des alten meist voll zufrieden (andere würden das geringe Ansprüche nennen, meine Prioritäten sind halt einfach andere) desshalb hab ich mich auch mit XP (bei BS hat nur eine Aufgabe für mich, Programme schnell zu starten :mrgreen: die Optik ist dabei egal, es muss schnell gehen und ich muss noch genug Ram frei haben....Win7 braucht zig mal mehr Ram als XP, aber ich habe im Alltag nichts daran entdecken können was ich in XP auch nutzen würde oder vermisse d.H Win Vista/7/8/10 = unnötig) Hardware eingedeckt, und werde es bis 2038 weiter nutzen :lol: und seit Jahren hab ich fast nichts neues mehr installiert (fast alles was ich benutze Portable und OpenSource, oder selbst geschrieben, und wozu andere Software mit dem selben Verwendungszweck ausprobieren wenn die alte schon alle Anforderungen erfüllt ?) da ich ja oft genug sehe, wie überladen, ressourcenfressend und langsam Software heutzutage oft ist.

Es gibt so viele Negativ Beispiele

Firefox (oder alles mit XUL und Gecko Engine) aktuelle TuneUp Versionen, Flash (leider muss ich den Mist updaten, wegen ""Sicherheits Lücken"" ........ hab mir in 12 Jahren aber nie was eingefangen) Photoshop, Winamp, Adobe Acrobat (mir reicht Sumatra PDF, 103943843984 x schneller, Open Source und kaum Raum Verbrauch) usw usw

Bin halt ein echter Freak :lol: ich hab noch eine Röhrenglotze (und alle möglichen Konsolen ab 1980, rauf bis zur PS2....zocken tu ich aber meist nur das uralte 8 & 16 Bit Zeugs) und seit 2 Jahren erst einen 4:3 / 5:4 19" TFT (der läuft auf 1024x768 xD damit hab ich die letzten 20 Jahre gearbeitet, bin damit zufrieden und alles ist noch gut lesbar :) ) davor immer meinen 19" CRT, und ich fahre auch nur alte Autos (alles vor 1992) :lol: am liebsten solche mit wenig Gewicht, kaum Dämmung, und mechanischer Haptik :lol: das geht soweit das mann mir einen aktuellen BMW M3 hin stellen könnte und daneben einen kleinen alten 316 BMW mit Vergaser und nur 90PS und ich würde den alten 316 fahren :lol:

ps: ich habe vor 8 Jahren mit japbe angefangen und konnte unter 32Bit Windows kein Nachteil gegenüber dem Standard Editor entdecken, nur Vorteile, und ich hab mich an den einfach schon so gewöhnt, ist wie eine gute, vertraute Ehefrau :lol: so lange der funzt, bleib ich dem treu. (ausser wenn es heist, probier mal den Code im normalen Editor, dann mach probier ich den Code dort, und dann wird das gleich wieder zugemacht, und japbe muss wieder rann :lol: )

__________________________________________________
Thread geteilt
Arbeitsbereich Ausrichtung nach AppBar größen Änderung>Tuningtools, Windows XP, Windows Update, Sicherheitslücken
Windows>Offtopic
GPI
Beiträge: 1511
Registriert: 29.08.2004 13:18
Kontaktdaten:

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von GPI »

Du hast halt einen riesen Fehler in deinen Überlegungen. Du gehst davon aus, das deine Software Fehlerfrei ist - und das war sie aber noch nie. Zu Dos-Zeiten war das auch nicht so schlimm, weil die Geräte nicht vernetzt waren. Wenn jemand eine Lücke ausnutzen wollte, musste er erstmal irgendwie auf den PC rauf.
Das hat sich mittlerweile völlig geändert. Um eine Lücke auszunutzen, muss man nicht mehr vor den Rechner sitzen, das geht aus der ferne wunderbar. Nicht mehr aktuelle Software zu benutzen ist in der heutigen Zeit einfach ein Nogo. Als würde man jeden Tag eine Frau abschleppen und ohne Kondome rumvögeln. Es ist nicht mehr die Frage ob man Geschlechtskrankheiten bekommt, sondern nur noch wann. Bitte komm nicht mit "es ist ja nie was passiert!". Frag mal Polizisten wie oft sie diesen Satz nach schweren Unfällen hören. Klar ist nie was passiert, bis es passiert und dann stellt man fest, das es doch so leicht zu verhinder gewesen wäre.

Genauso witzig finde ich dein Überoptimieren des Systems. Es bringt eigentlich kaum noch mehr was. Heutige Systeme sind eigentlich schnell genug um die "Überlast" zu handeln. Eher macht man durch die Optimierung irgendwas kaputt und schimpft dann auf Windows, warum es wieder mal nicht funktioniert :)
Bspw. die "Optimierung" möglichst viel freien Speicher zu haben. Leerer Speicher bedeutet, das man zu viel Speicher in System drin hat. Wenn er leer ist, nutzt es einen überhaupt nichts. Hier hat man ja bei MS und Vista umgedacht: Der leere Speicher wird mit Daten aufgefüllt, die man vielleicht brauchen könnte. Das beschleunigt dann auch das System, weil sie anschließend nicht mehr die Daten mühsam von der HDD laden müssen.

Apropro HDD. Wenn man sein System wirklich beschleunigen will, dann optimier nicht an den Einstellungen rum, sondern installier eine SSD. Bei heutigen Systemen ist die HDD *DIE* Bremse überhaupt. Im Gegensatz zu sämtlichen anderen Optimierungen merkt man hier den Unterschied sofort und ohne komplizierte Zeitmessung. Nur XP unterstützt SSDs nicht gut, da ist spätestens ein Upgrade fällig :)

p.s.: Um die unsinnigen Einblendungen von Menüs etc. auszuschalten braucht man kein Tuning tools :) Meine Erfahrung ist da schlicht, das die Dinger mehr kaputt machen als ganz. Ich denke dabei an das "schnelle Herunterfahren", wo die Prozesse einfach abgewürgt werden, egal was sie tun. Damit haben schon einige ihr System geschrottet. Oder das ausklinken der Aktivierungs-DLLs, nur um anschließend bei einen Komponentenwechsel festzustellen, das Windows sich nicht mehr starten lässt und man es auch nicht mehr aktivieren kann. Warum hat man das gemacht? Weils Spyware ist. Ja die Vorwürfe gabs damals schon beim geliebten XP.
p.p.s.: Die größe der Registry ist völlig irrelevant für die Geschwindigkeit. Das war einmal.
p..p.p.s.: Ich sage ja nicht, das man XP nicht mehr verwenden sollte - aber die Kisten sollten auf keinen Fall im Internet hängen. Das ist einfach ein nicht mehr zu kalkulierendes Sicherheitsrisiko. Da sollte man dringen auf eine aktuelle Version upgraden. Das gilt übrigens für alle Geräte, nicht nur Windows. (Aus den Grund hab ich mein Android-Handy verschenkt. Android ist leider berüchtigt dafür, das kaum bis keine Updates an die Endgeräte ausgeliefert werden. Nicht selten sind die Dinger schon beim Kauf völlig veraltet).
CodeArchiv Rebirth: Deutsches Forum Github Hilfe ist immer gern gesehen!
Benutzeravatar
Bisonte
Beiträge: 2427
Registriert: 01.04.2007 20:18

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von Bisonte »

N00B hat geschrieben:Danke das du mir geholfen hast Bisonte :) ...
Funktioniert es denn nun bei dir ?

Für den Fall, dass es immer noch nicht geht : Mal eine VM (VirtualBox z.B.) nehmen und da dein Windows installieren ohne
Tuning, und dort testen obs läuft. Und dafür muss das Windows auch nicht aktiviert werden...
PureBasic 6.04 LTS (Windows x86/x64) | Windows10 Pro x64 | Asus TUF X570 Gaming Plus | R9 5900X | 64GB RAM | GeForce RTX 3080 TI iChill X4 | HAF XF Evo | build by vannicom​​
Benutzeravatar
N00B
Beiträge: 122
Registriert: 11.07.2007 22:28

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von N00B »

Bisonte hat geschrieben:
N00B hat geschrieben:Danke das du mir geholfen hast Bisonte :) ...
Funktioniert es denn nun bei dir ?

Für den Fall, dass es immer noch nicht geht : Mal eine VM (VirtualBox z.B.) nehmen und da dein Windows installieren ohne
Tuning, und dort testen obs läuft. Und dafür muss das Windows auch nicht aktiviert werden...
Nein leider immer noch nicht, du hast mir trotzdem sehr geholfen :)

Ich hab es auch in VirtualBox über ein standard XP mit SP3 und Win 7 ohne irgendwelches Tuning probiert.

Mit dem Code aus meinem vorherigen Post.
GPI hat geschrieben:Du hast halt einen riesen Fehler in deinen Überlegungen. Du gehst davon aus, das deine Software Fehlerfrei ist - und das war sie aber noch nie. Zu Dos-Zeiten war das auch nicht so schlimm, weil die Geräte nicht vernetzt waren. Wenn jemand eine Lücke ausnutzen wollte, musste er erstmal irgendwie auf den PC rauf.
Das hat sich mittlerweile völlig geändert. Um eine Lücke auszunutzen, muss man nicht mehr vor den Rechner sitzen, das geht aus der ferne wunderbar. Nicht mehr aktuelle Software zu benutzen ist in der heutigen Zeit einfach ein Nogo. Als würde man jeden Tag eine Frau abschleppen und ohne Kondome rumvögeln. Es ist nicht mehr die Frage ob man Geschlechtskrankheiten bekommt, sondern nur noch wann. Bitte komm nicht mit "es ist ja nie was passiert!". Frag mal Polizisten wie oft sie diesen Satz nach schweren Unfällen hören. Klar ist nie was passiert, bis es passiert und dann stellt man fest, das es doch so leicht zu verhinder gewesen wäre.

Genauso witzig finde ich dein Überoptimieren des Systems. Es bringt eigentlich kaum noch mehr was. Heutige Systeme sind eigentlich schnell genug um die "Überlast" zu handeln. Eher macht man durch die Optimierung irgendwas kaputt und schimpft dann auf Windows, warum es wieder mal nicht funktioniert :)
Bspw. die "Optimierung" möglichst viel freien Speicher zu haben. Leerer Speicher bedeutet, das man zu viel Speicher in System drin hat. Wenn er leer ist, nutzt es einen überhaupt nichts. Hier hat man ja bei MS und Vista umgedacht: Der leere Speicher wird mit Daten aufgefüllt, die man vielleicht brauchen könnte. Das beschleunigt dann auch das System, weil sie anschließend nicht mehr die Daten mühsam von der HDD laden müssen.

Apropro HDD. Wenn man sein System wirklich beschleunigen will, dann optimier nicht an den Einstellungen rum, sondern installier eine SSD. Bei heutigen Systemen ist die HDD *DIE* Bremse überhaupt. Im Gegensatz zu sämtlichen anderen Optimierungen merkt man hier den Unterschied sofort und ohne komplizierte Zeitmessung. Nur XP unterstützt SSDs nicht gut, da ist spätestens ein Upgrade fällig :)

p.s.: Um die unsinnigen Einblendungen von Menüs etc. auszuschalten braucht man kein Tuning tools :) Meine Erfahrung ist da schlicht, das die Dinger mehr kaputt machen als ganz. Ich denke dabei an das "schnelle Herunterfahren", wo die Prozesse einfach abgewürgt werden, egal was sie tun. Damit haben schon einige ihr System geschrottet. Oder das ausklinken der Aktivierungs-DLLs, nur um anschließend bei einen Komponentenwechsel festzustellen, das Windows sich nicht mehr starten lässt und man es auch nicht mehr aktivieren kann. Warum hat man das gemacht? Weils Spyware ist. Ja die Vorwürfe gabs damals schon beim geliebten XP.
p.p.s.: Die größe der Registry ist völlig irrelevant für die Geschwindigkeit. Das war einmal.
p..p.p.s.: Ich sage ja nicht, das man XP nicht mehr verwenden sollte - aber die Kisten sollten auf keinen Fall im Internet hängen. Das ist einfach ein nicht mehr zu kalkulierendes Sicherheitsrisiko. Da sollte man dringen auf eine aktuelle Version upgraden. Das gilt übrigens für alle Geräte, nicht nur Windows. (Aus den Grund hab ich mein Android-Handy verschenkt. Android ist leider berüchtigt dafür, das kaum bis keine Updates an die Endgeräte ausgeliefert werden. Nicht selten sind die Dinger schon beim Kauf völlig veraltet).
Welche Software meinst du ? Die Tuningtools ?

Die meisten ""Sicherheitslücken"" sind so unpraktikabel, und es müssen dermaßén viele Umstände zusammen treffen, daß es sich mehr um Panikmache als um echte Sicherheitslücken handelt. (ich hab mich schon vor 10 Jahren öfter auf Packetstorm usw rumgetrieben ..... da mich solche Dinge interessieren) Eine echte Sicherheitslücke war damals der Mist mit XP vor SP2, als mann nicht mal einen Browser starten musste, und schon war das System infiziert.

Also XP mit SP2 oder SP3 drauf, einen Router, eine anständige, schnelle Software Firewall (nur damit ich weiß, was eine Verbindung nach aussen aufbauen will ...... und vor allem wann, und was für Daten versendet werden) Closed Source Software wie die Pest meiden, Portable Open Source Software benutzen, und vor allem das Gehirn einschalten beim surfen, denn das größte Sicherheitsrisiko ist der Mensch der den PC bedient.

All dieser Update Wahn ist perfekt um bei jedem Update gesammelte Daten zu übertragen ..... ich jedenfalls würde es so machen wenn ich Microsoft währe, oder jemand der auf Daten sammeln Wert legt.

Desshalb traue ich keiner Update Funktion, wenn das Programm nicht Open Source ist.

Ich hab in 12 Jahren kein einziges Windows Update gezogen (ausser Service Packs) ich hab seit 5 Jahren kein überladenes, ausbremsendes, schlecht geschriebenes, ressourcenfressendes Anti Virus Programm mehr laufen.

In 12 Jahren hab ich nur False Positives, teils wurde bei meiner eigenen Software angeschlagen, (beim compilen, oder ausführen) von einem AV Version Update zum anderen, bei Software die ich seit Jahren benutze, und die Open Source ist.

Dieser Sicherheitslücken Wahn und dieser ganze AV Quatsch ist nichts anderes als Panikmache um Geld zu machen.........sowas wird auch ausserhalb vom Internet betrieben........grade derzeit :(.......mit Waffen & ÖL kann mann viel Geld verdienen.

Die heutigen Systeme sind schnell genug ? Wo Bitte ? wenn die Software gleichzeitig mit Absicht immer langsamer und überladener wird ? (Du würdest dich wundern wie schnell mein uraltes Single Core 1,2ghz Notebook mit 4200upm HD und älteren Versionen ist :) )

Das hält die Industrie am Leben ! Und da mach ich nicht mit !

Guck ich habe von 2003 bis 2006 mit 512MB Ram gelebt, und einem Athon XP 2004, ich konnte mit Firefox wunderbar schnell surfen, mit mehreren offenen Tabs, und das trotz AV Software (damals war AV Software halt noch nicht ein überladener Müll, der noch 2309324934893 andere Dinge halbherzig versucht, statt sich auf das wesentliche zu konzentrieren) Der gesammt Ram Verbrauch wurde nie kritisch (um FF mal auf 240mb und mehr zu kriegen, musste ich schon einen Monat surfen mit 50 Tabs gleichzeitig) nur wenn ich eine paar gejointe Wordlists nach Doppelten scannen lassen habe.

Wie sieht es denn heutzutage aus ?

Firefox (Blank ohne Pluigins) starten und schon mal 80MB Ram Verbrauch.

Ok 5 Min surfen auf ebay,youtube etc .... Ram Verbrauchg mindestens 240MB ! danach die Tabs schliessen und 2 Min warten, und siehe da, der Ram verbrauch ist nicht mal ansatzweise wieder auf dem Ursprungswert ! Und da kann ich in den Cache Einstellungen unter FF einstellen was ich will. Und je mehr Ram FF grade verbraucht, und je länger FF läuft, desto träger reagiert es auf Right Clicks, desto träger der Ping usw usw

Ok nehmen wir mal Adobe Flash.

Ich hab hier noch einen alten Dell Latitude X300 mit XP, 640MB Ram und einem Intel Single Core Prozessor mit 1,2ghz liegen. Bis vor ca 2 Jahren konnte ich damit noch im Vollbild auf YT 480p ruckelfrei laufen lassen, heute geht das gerade noch mit 360p, und an dem System wird nichts geändert (ausser halt Flash Updates, und eine neuere Portable FF Version wenn es anders ncht geht) nichts neu installiert, und das XP läuft noch nach 7 Jahren so schnell wie am ersten Tag...die Startzeit von XP ink kompletten laden vom Tray (im Gegensatz zu Vista usw gaukelt einem XP nicht vor das gewisse Sachen schon geladen sind.....Dienste verspätet starten, sowas kennt XP noch nicht) liegt bei nicht mal 20 Sekunden !

Oder die NVidia Treiber, früher ein schönes simples kleines Tool dazu gehabt, doppelklick und ratz fatz hat mann alles wichtige vor sich gehabt. Dann irgendwann haben die die Monster IDE mit Monströsen Icons usw für Blinde geschrieben, Ram Verbrauch das 3 fache, und die zip locker 40% größer, die Startzeit von 2-3 Sek auf 30-50 Sek angesprungen und danach hat mann sogar weniger Optionen gehabt (1:1 Cloning über TV-Out, stufenloses stauchen & zoomen auf Overlay Gerät 2 sprich TV nicht mehr möglich) ich hab nicht umsonst eine alte GT6600 mit TV-Out und einer ganz gewissen Treiber Version laufen.

Wie oft wurde Firefox langsamer von einer Version zur nächsten, hat noch mehr Ram gebraucht, und es wurden gute Funktionen ausgebaut, und unwichtige eingebaut ? Wie oft hies es, schneller und weniger Ram verbrauch als davor ? Sehr oft, und ich habe es immer getestet, und es war jedes mal genau das Gegenteil.

Was ist mit Nero ?

Nero ist nach Nero 6.6 ein total überladenes, lahmes, Ram & HD Platz fressendes Monster das alles auf einmal versucht, und sehr viel davon nicht gut kann. Richtig üble Bloatware.

Also benutze ich immer noch die uralt Version, denn sie macht nur das was sie soll.

CD's & DVD's & Isos brennen, und das mit einer relativ schnellen und schlichten Oberfläche.

Je weniger Ram belegt ist, desto weniger Fragmentierung herscht im Ram, je kleiner die MFT (XP hat nur einen Bruchteil der Dateien die Vista usw hat) ist, desto schneller der Zugriff (probiers aus, wirf mal 40.000 Dateien in einen Ordner, schliess das Fenster danach, surf bisschen rum, und öffne den Ordner........du wirst dich wundern wie lange das dauert) desto mehr kann im Cache oder Ram sein, und je fragmentierte etwas ist, desto öfter muss gesprungen werden..............also zählt das Argument nicht, genug Ram noch frei zu haben, trotz massig Verbrauch.

Es geht immer schneller, und immer optimierter, also wieso nicht das maximale raus holen, wenn mann keine Nachteile im Alltag dadurch hat ?

Ich benutze fast ausschliesslich Open Source Software (und die zieh ich gewiss nicht bei chip usw alles verpestet mit doubleclick usw) die Portabel ist, oder altbewährte Software aus Zeiten wo noch nicht viele Unternehmen mit suspekten Werbe Firmen zusammen gearbeitet haben.

Ich lasse mir keine Plug Ins auf suspekten Seiten andrehen (oder generell keine PlugIns, Flash muss reichen) ich starte keine exe die nicht aus seriöser Quelle stammt, ich hab ständig NoScript laufen, und kein Java auf meinem System installiert, und vor allem benutze ich keine gecrackte Software oder führe irgendwelche KeyGens aus.

12 Jahre und keine Infektion (ich scanne alle paar Monate mal von einer frisch gebrannten Linux Live CD aus mit ClamAV, und nichts bis auf seltene False Positives. Mal Falschmeldung bei Software X die ich seit 12 Jahren benutze, dann beim nächsten mal bei Software Y die ich auch seit Jahren benutze, dafür dann nicht mehr bei Software X...........trotzdem prüfe ich dann alles auf Virus-Total, und es stellt sich immer raus, daß es false Positives sind) wie gesagt, das größte Sicherheitsrisiko ist der Mensch.

Jetzt kommen wir mal zu den Optimierungen und dem leeren Speicher, ich habe in meinem Post oben einen Verschreiber gehabt, ich meinte XP ist von Haus aus (weil damals halt nur 256MB Ram üblich waren, und XP selbst schon ca 120 braucht) so eingestellt das der System Cache klein ist, und der XP Kern ständig ausgelagert wird.

Aber genau das lässt sich in XP alles einstellen, danach lagert XP nicht mehr aus, und hällt einen großen Teil vom Kern permanent im Cache.........genau die selben Tricks wie sie Vista usw benutzen.

Und eine kleine Registry ist sehr wohl wichtig für einen schnellen Zugriff.

Was glaubst du geht schneller, auf eine Datenbank mit 1.000.000 Einträgen zuzugreifen oder eine mit 54945834734873 ?

Was glaubst du geht schneller, auf eine möglichst leeren HD, Daten abzurufen und zu speichern, oder auf einer vollen ?

Installier doch mal auf einem XP, dieses .net Mist von Microsoft, danach haste 232323449348 Dateien mehr auf'm System, und 23892382938 mehr Registry Schlüssel und Einträge, und das merkt mann dann auch beim hoch fahren..........

Ich brauche keine SSD, ich sehe ja oft genug im Umfeld wie die Haltbarkeit solcher HD's ist :D ich setze auf altbewährtes. 16K Cluster einrichten, auf möglichst großer HD, und dafür sorgen das Windows nicht ständig irgendwas treibt weil irgendwelche doofen Dienste rumspielen wollen.

Ich habe auch nie behauptet das ich schnelles abwürgen aktiviert habe (und genau solche Optionen werden auch in guten Tuning Tools eben nicht empfohlen ! Also erst mal TuneUp bis 2007 unter XP angucken, und sich dann ein Urteil über diese echt gute Software bilden :) ) oder Windows aktiviert.....ich hab eine Windows XP Coorporate Version laufen......die selbe seit 2003, und die braucht keine Aktivierung.........trotzdem hab ich die licddl.dll und Regwizc.dll ausgeklinkt.......bei bei einem Hardware Wechsel z.B der HD trotzdem keine Probleme gehabt.

Ich deaktiviere & aktiviere nichts, daß in der Praxis nicht spürbaren Unterschied bringt, und gleichzeitig keine Nachteile hat.

Nach massig rumprobieren über die Jahre hab ich da einfach den Dreh raus :)

Und XP ein Sicherheitsrisiko zu nennen, nur weil es alt ist, ist diese typische 0815 Medien Aussage (MS braucht Geld -> Software & Hardware & Werbeindustrie unterstützt Medien mit Geld->Medien sagen was Geldgeber will) und es wundert mich das so viele Leute die so viel begabter und besser im programmieren wie ich sind, auf diese Quatsch Panik mache und "Täglich 1000 Viren, Zombie Netze, Sicherheitslücken" Mythen rein fallen.

Mit Angst macht mann Geld, und XP ist nach 12 Jahren mit SP3 so sicher wie nie zuvor, ein Rooter
hält die Ports dicht, Browser laufen in einer art Sandbox, und ein Virus muss erst mal durch Aufruf aktiviert werden (Dropper & Injector surf mal danach)..........und da soll ein Betriebsystem unsicher sein, nur weil es grade online über Port 80 ist ?

Das einzige wirkliche tägliche Risiko ist Java Script und Active X (aber wer lässt den Schrott schon aktiviert der auch nur bisschen Ahnung hat ? Keiner) .......aber dafür gibt es ja innerhalb vom Browser auch Mittel und Wege :)
Benutzeravatar
xXRobo_CubeXx
Beiträge: 120
Registriert: 12.06.2015 16:08
Computerausstattung: Version 5.41 LTS
Wohnort: Wohnort
Kontaktdaten:

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von xXRobo_CubeXx »

N00B hat eindeutig Recht, seh ich genauso! Da sieht man, wer von den Medien verblendet ist und wer nicht. ;) :)
Version 5.41 LTS :)
Benutzeravatar
N00B
Beiträge: 122
Registriert: 11.07.2007 22:28

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von N00B »

xXRobo_CubeXx hat geschrieben:N00B hat eindeutig Recht, seh ich genauso! Da sieht man, wer von den Medien verblendet ist und wer nicht. ;) :)
Danke :) trotzdem sind die meisten hier, mir Lichtjahre voraus im Proggen :) und davor hab ich großen Respekt. Wenn ich mir so ein paar WinApi Beispiele angucke, haut es mir immer wieder die Kinnlade runter :freak: und ich frage mich wie mann das alles checken kann :lol: der AppBar Code ist ja noch relativ verständlich (bis auf die Pointer Sache mit diesem komischen Rect Zeugs) aber es gibt Dinge da guck ich dann erst so :shock: danach so :praise:

z.B das hier
http://www.rsbasic.de/aktualisierung/wi ... mitteln.pb

http://www.rsbasic.de/aktualisierung/wi ... mitteln.pb

http://www.rsbasic.de/aktualisierung/wi ... tButton.pb

http://www.rsbasic.de/aktualisierung/wi ... ivieren.pb

http://www.rsbasic.de/aktualisierung/wi ... rwenden.pb

http://www.rsbasic.de/aktualisierung/wi ... A4ndern.pb

http://www.rsbasic.de/aktualisierung/wi ... uslesen.pb

:praise: :praise:
http://www.rsbasic.de/aktualisierung/wi ... t-Event.pb

:praise: :praise:
http://www.rsbasic.de/aktualisierung/wi ... mitteln.pb

Ich frage mich dann immer, wie mann nur auf all die Konstanten kommt, woher mann das weiß, wie mann das ganze Api Pointer Befehls Puzzle perfekt zusammen fügen kann.

Wenn ich auf msdn lese dann guck ich meist so :freak: ausser es ist was das wirklich nur eine einzige Zeile braucht, und 2-3 Parameter hat, und es gibt sonst keine anderen Befehle die noch damit zusammen hängen. :lol:
GPI
Beiträge: 1511
Registriert: 29.08.2004 13:18
Kontaktdaten:

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von GPI »

N00B hat geschrieben:Die meisten ""Sicherheitslücken"" sind so unpraktikabel, und es müssen dermaßén viele Umstände zusammen treffen, daß es sich mehr um Panikmache als um echte Sicherheitslücken handelt. (ich hab mich schon vor 10 Jahren öfter auf Packetstorm usw rumgetrieben ..... da mich solche Dinge interessieren) Eine echte Sicherheitslücke war damals der Mist mit XP vor SP2, als mann nicht mal einen Browser starten musste, und schon war das System infiziert.

Also XP mit SP2 oder SP3 drauf, einen Router, eine anständige, schnelle Software Firewall (nur damit ich weiß, was eine Verbindung nach aussen aufbauen will ...... und vor allem wann, und was für Daten versendet werden) Closed Source Software wie die Pest meiden, Portable Open Source Software benutzen, und vor allem das Gehirn einschalten beim surfen, denn das größte Sicherheitsrisiko ist der Mensch der den PC bedient.
Ganz ehrlich - du hast schon verloren. Open Source ist nicht das Allheilmittel - ich errinnere jetzt da gerne an Hearthbleed-Lücke. Lustig ist aber, das du sagst, das man Closed Source Software meiden soll, dann aber so Konsequent zu sein, ausgerechnet Windows zu benutzen - das hat was. Gehirn einschalten beim surfen bringt dir auch recht wenig, wenn mal eine bekannte Seite geknackt wird und diese Schadsoftware verteilt. Das ist auch schon mehr als einmal passiert. Hirn einschalten ist zwar prinzipiell eine gute Idee, aber alleine kommt man damit auch nicht weit.
All dieser Update Wahn ist perfekt um bei jedem Update gesammelte Daten zu übertragen ..... ich jedenfalls würde es so machen wenn ich Microsoft währe, oder jemand der auf Daten sammeln Wert legt.
JA wir sind wieder mal soweit. Mal ehrlich: Warum zur Hölle nutzt du Windows? Masochistisch veranlagt? Ja, der NSA-Skandal ist recht frisch und ja, sie grabschen Daten wo sie nur können. Aber glaubst du ernsthaft, die sind so blöd, eine Spionagesoftware auf sämtlichen PCs unterzubringen, damit sie gefunden werden? Warum konnten die wohl Jahrzehnte lang unbeteiligt arbeiten? Weil sie die Server "angegriffen" haben und die Gesetzte der USA die Firmen zum schweigen verpflichtet. Als User bekommst du das nicht mit. Es gibt genügend MS-Hasser die MS liebend gerne einen geheimen Datenstrom beweisen möchten - und die auch Ahnung von der Materie haben. Es hat bis jetzt nicht ein einziger geschafft. Nach Jahrzehnten nicht.
MS ist nur zu blöd entsprechende Optionen anzubieten. Bei Google weis ich bspw. 100% das sie Private Daten ausschnüffeln - das ist ihr Produkt, das sie an die Werbeindustrie verkaufen. MS hat andere Strategien - auch wenn sie mit OneCloud da teilweise in ähnliche Richtung gehen - aber das muss ich jetzt wirklich nicht nutzen.
Hier wären wir tatsächlich wieder bei Hirn einschalten. Die NSA würde niemals einen "SpionagePatch" für alle raushauen. Wenn sowas kommen solte, dann wäre das sehr speziell auf gewisse Regionen und Personen begrenzt. Gibt ja einige Viren, die sich selbst vernichten, wenn sie gewisse Sachen feststellen (bspw. bestimmte Zeitzone). Rate mal wieso. Damit sie nicht so schnell gefunden werden.

Die Diskussion wegen Auspionieren ist so alt wie Windows. Wie war das damals zu XP-Zeiten - als erstes mal das System mit XPAntiSpy zerschießen lassen, damits läuft.

Und es werden noch genügend Sicherheitlücken gefunden, die kommen halt in den unterschiedlichsten Formaten daher. Viren verstecken sich eher in anderen Formaten, wie PDF, DOC, Bilder, Videos. Und jedes aktuelles System hat Routinen, um diese Formate zu öffnen, die auch von vielen Programmen genutzt werden.
Ich hab in 12 Jahren kein einziges Windows Update gezogen (ausser Service Packs) ich hab seit 5 Jahren kein überladenes, ausbremsendes, schlecht geschriebenes, ressourcenfressendes Anti Virus Programm mehr laufen.

In 12 Jahren hab ich nur False Positives, teils wurde bei meiner eigenen Software angeschlagen, (beim compilen, oder ausführen) von einem AV Version Update zum anderen, bei Software die ich seit Jahren benutze, und die Open Source ist.

Dieser Sicherheitslücken Wahn und dieser ganze AV Quatsch ist nichts anderes als Panikmache um Geld zu machen.........sowas wird auch ausserhalb vom Internet betrieben........grade derzeit :(.......mit Waffen & ÖL kann mann viel Geld verdienen.
Sorry, aber Argumente wie "es ist nie was passiert" ist so ziemlich das dämlichste Argument, das man bringen kann. Ich befestigte die Ladung im Lastwagen seit Jahrzehnten so, warum soll ich sie auf einmal festbinden? Völlig unnötiger Wahn!
Die heutigen Systeme sind schnell genug ? Wo Bitte ? wenn die Software gleichzeitig mit Absicht immer langsamer und überladener wird ? (Du würdest dich wundern wie schnell mein uraltes Single Core 1,2ghz Notebook mit 4200upm HD und älteren Versionen ist :) )
Wir sind schon wieder bei Hirn einschalten. Bau mal eine SSD ein und du wirst merken, wie langsam die Kiste überhaupt ist. Aber das würde ich nicht mit XP machen, da das Ding überhaupt nicht richtig damit umgehen kann.

Außerdem machst du in deinen Optimierungswahn einen großen Fehler. Du optimierst nur auf Sachen die du messen kannst. Es gibt da aber durchaus noch andere Faktoren, die du völlig unberücksichtigt lässt. Sicherheit bspw. Das kann man nicht messen (oder gibt mal eine Maßeinheit für Sicherheit an). Kompatiblität. Auch das lässt sich schwer messen. Liest man ja hier in diesen Thread, das sich dein Windows komisch verhält und nicht mehr normal. Offensichtlich überoptimiert. Wir leben fast in Jahr 2016, nicht mehr 1986. Damals musste man primär auf Geschwindigkeit gehen, weil die Geräte unter aller sau lahm waren. Heute kann man sich den Luxus leisten, auf anderes mehr Rücksicht zu nehmen.
Guck ich habe von 2003 bis 2006 mit 512MB Ram gelebt, und einem Athon XP 2004, ich konnte mit Firefox wunderbar schnell surfen, mit mehreren offenen Tabs, und das trotz AV Software (damals war AV Software halt noch nicht ein überladener Müll, der noch 2309324934893 andere Dinge halbherzig versucht, statt sich auf das wesentliche zu konzentrieren) Der gesammt Ram Verbrauch wurde nie kritisch (um FF mal auf 240mb und mehr zu kriegen, musste ich schon einen Monat surfen mit 50 Tabs gleichzeitig) nur wenn ich eine paar gejointe Wordlists nach Doppelten scannen lassen habe.

Wie sieht es denn heutzutage aus ?

Firefox (Blank ohne Pluigins) starten und schon mal 80MB Ram Verbrauch.
Und weist du wieso? Weil das Ding immer mehr können muss. Schau dir mal die Webseiten an, die immer mehr brauchen. 80mb? Und? Wo ist das Problem? 4GB Ram sind aktueller minimumstandard bei PCs. 8GB dürften wohl die meisten Geräte haben - sogar die Bürokisten.
Ok 5 Min surfen auf ebay,youtube etc .... Ram Verbrauchg mindestens 240MB ! danach die Tabs schliessen und 2 Min warten, und siehe da, der Ram verbrauch ist nicht mal ansatzweise wieder auf dem Ursprungswert ! Und da kann ich in den Cache Einstellungen unter FF einstellen was ich will. Und je mehr Ram FF grade verbraucht, und je länger FF läuft, desto träger reagiert es auf Right Clicks, desto träger der Ping usw usw
Ganz ehrlich - noch nie was gemerkt von und ich setzte nur FF ein. Hast du da auch schon wieder rumkonfiguriert? Warum FF bspw. den Ram nicht freigibt? Warum sollte es? Wenn es gut programmiert ist, hält es die Daten erstmal in Speicher, falls du wieder auf die gleiche Seite raufgehst - was nicht unwahrscheinlich ist. Erst wenn neue Resourcen geladen werden müssen, würde ich die alten aus den Speicher schmeißen und durch die neuen ersetzen. Wäre bspw. eine sehr gute Strategie um die Geschwindigkeit zu erhöhen. Wie gesagt: Ein leerer Speicher ist ein verschwendeter Speicher.
Eine Optimierung in niedrigen RAM-Verbrauch ist schlicht einfach nicht nötig. Selbst 2GB-Kisten würden nicht ins Schwitzen geraten.
Ok nehmen wir mal Adobe Flash.
Rate mal, warum Flash auch gerade stirbt? Zum anderen auch, weil viele Funktionen in HTML übernommen wurden. Was sicherlich dazu beiträgt, das FF immer größer und Speicherhungriger wird.
Ich hab hier noch einen alten Dell Latitude X300 mit XP, 640MB Ram und einem Intel Single Core Prozessor mit 1,2ghz liegen. Bis vor ca 2 Jahren konnte ich damit noch im Vollbild auf YT 480p ruckelfrei laufen lassen, heute geht das gerade noch mit 360p, und an dem System wird nichts geändert (ausser halt Flash Updates, und eine neuere Portable FF Version wenn es anders ncht geht) nichts neu installiert, und das XP läuft noch nach 7 Jahren so schnell wie am ersten Tag...die Startzeit von XP ink kompletten laden vom Tray (im Gegensatz zu Vista usw gaukelt einem XP nicht vor das gewisse Sachen schon geladen sind.....Dienste verspätet starten, sowas kennt XP noch nicht) liegt bei nicht mal 20 Sekunden !
süß. Jetzt weis ich nicht, was sich in Hintergrund bei YT geändert hat. Bspw. anderer Codec. Auch möglich, das man aus Sicherheitsgründen Tricks ausgebaut hat, die man vorher genutzt hatte. Auch möglich, das die Videos mit HTML5 abgespielt werden, da hat nämlich FF ein Problem, der kann diesbezüglich keine Hardwarebeschleunigung.
Oder die NVidia Treiber, früher ein schönes simples kleines Tool dazu gehabt, doppelklick und ratz fatz hat mann alles wichtige vor sich gehabt. Dann irgendwann haben die die Monster IDE mit Monströsen Icons usw für Blinde geschrieben, Ram Verbrauch das 3 fache, und die zip locker 40% größer, die Startzeit von 2-3 Sek auf 30-50 Sek angesprungen und danach hat mann sogar weniger Optionen gehabt (1:1 Cloning über TV-Out, stufenloses stauchen & zoomen auf Overlay Gerät 2 sprich TV nicht mehr möglich) ich hab nicht umsonst eine alte GT6600 mit TV-Out und einer ganz gewissen Treiber Version laufen.
Sorry, aber wenn du so einen Dinosaurier laufen lässt :) - TV Out - wie lange habe ich das schon nicht mehr gehört - wieviele Jahrzehnte ist das jetzt her :) Dank HDMI ist das ganze eigentlich komplett ausgestorben. Ich kann aber NVIDIA gut verstehen, das sie lieber Resourcen in andere Sachen stecken, als einen TV-Out, den heute sowieso keiner mehr braucht.
Was ist mit Nero ?
Nero ist nach Nero 6.6 ein total überladenes, lahmes, Ram & HD Platz fressendes Monster das alles auf einmal versucht, und sehr viel davon nicht gut kann. Richtig üble Bloatware.
Also benutze ich immer noch die uralt Version, denn sie macht nur das was sie soll.
CD's & DVD's & Isos brennen, und das mit einer relativ schnellen und schlichten Oberfläche.
Hier hast du etwas nicht verstanden. CD's? DVD's? Was ist das? Wenn ich überlege, wie früher Media Markt und Co mit Rohlingen zugestellt waren, heute ist da kaum noch was, man muss sie suchen. Schon Ewigkeiten nichts mehr gebrannt. Die meisten neuen PCs haben nicht mal mehr Laufwerke, weil das eine veraltete Technologie ist. Zumal es haufenweise Programme gibt, die die Funktion genauso gut können und nichts kosten. Brenner sind schlicht am aussterben. Optische Medien überleben nur als Film-DVDs/BRs und bei Konsolen. Ansonsten nimmt man USB-Festplatten/Sticks oder NAS-Laufwerke.

Und hier hat Nero größere Weitsicht bewiesen. Ich hab auch früher über Nero geschimpft, weil es so aufgeblasen wurde. Aber heute seh ich das anders. Mit einen Brennprogramm wären sie schon lange pleite - von Fortschritt überrollt. Sie haben etwas sehr kleveres gemacht, zu einer Zeit als es noch nicht üblich war, haben sie sich den Multimedia-Bearbeitungs-Markt erschlossen. Wärst du ein Entscheidungsträger gewesen, dann gäbe es heute sicherlich kein Nero mehr.
Je weniger Ram belegt ist, desto weniger Fragmentierung herscht im Ram, je kleiner die MFT (XP hat nur einen Bruchteil der Dateien die Vista usw hat) ist, desto schneller der Zugriff (probiers aus, wirf mal 40.000 Dateien in einen Ordner, schliess das Fenster danach, surf bisschen rum, und öffne den Ordner........du wirst dich wundern wie lange das dauert)
Warum zur Hölle sollte ich 40.000 Dateien in einen Ordner schmeißen?! Da find ich doch nie wieder was. Ich pack das lieber in entsprechende Unterverzeichnisse...
Es geht immer schneller, und immer optimierter, also wieso nicht das maximale raus holen, wenn mann keine Nachteile im Alltag dadurch hat ?
Wie ist die Diskussion hier entstanden - achja, bei dir funktioniert was nicht, was bei anderen ohne Probleme funktioniert.... merkst du was? Und wie gesagt, man kann auf viele Arten optimieren, du optimierst nur auf "oberflächlichkeiten" die man messen kann.
Ich lasse mir keine Plug Ins auf suspekten Seiten andrehen (oder generell keine PlugIns, Flash muss reichen) ich starte keine exe die nicht aus seriöser Quelle stammt, ich hab ständig NoScript laufen, und kein Java auf meinem System installiert, und vor allem benutze ich keine gecrackte Software oder führe irgendwelche KeyGens aus.
Ach, das mach ich auch so. Bei mir ist Flash in Firefox auf "nur nach nachfrage" - ist zwar ein bischen nerfig, wenn man erstmal überall "nein" sagen muss, aber funktioniert besser. Nicht aus seriöser Quelle ist mittlerweile auch zu vergessen - da gehören leidern schon oft die Herstellerseiten dazu. Hab ich gemerkt. Gecrackte Software ist auch so ein Ding, genauso wie KeyGens. Wenn man das macht, muss man immer mit Überraschungen rechnen :)
Und eine kleine Registry ist sehr wohl wichtig für einen schnellen Zugriff.
Was glaubst du geht schneller, auf eine Datenbank mit 1.000.000 Einträgen zuzugreifen oder eine mit 54945834734873 ?
Dürfte Stark von der Datenbank abhängen. Ist sie gut, wirst du keinen großen unterschied merken.
Was glaubst du geht schneller, auf eine möglichst leeren HD, Daten abzurufen und zu speichern, oder auf einer vollen ?
Könnte das mit den Cache-Speicher der HDD abhängen? Könnte auch eher mit einer Fragmentierung des Speichers zusammen hängen, nicht mit den Füllstand.

Und hier hast du was nicht verstanden. Windows seit Vista lädt in den leeren Bereichen Daten vor, die man eventuell gebrauchen könnte. Wenn sie doch nicht gebraucht werden, wirds halt überschrieben und gut ist. Aber den ungenutzten Speicher als Cache zu missbrauchen halte ich erstmal für eine sehr gute Idee. Zumal mein System gerade mal mit 38% Speicher aktuell ausgelastet ist. Hier in Speicher zu optimieren, ist völliger Unsinn. Da ist es besser die Zeit zu nutzen, um die Kompatiblität zu erhöhen.
Installier doch mal auf einem XP, dieses .net Mist von Microsoft, danach haste 232323449348 Dateien mehr auf'm System, und 23892382938 mehr Registry Schlüssel und Einträge, und das merkt mann dann auch beim hoch fahren..........
Uhi, hast du die nachgezählt? Kann es auch sein, das XP etwas älter ist und deswegen damit nicht mehr gut klar kommt? Wobei mal ehrlich, ob das Ding in 20s oder eine Minute hochfährt - was solls.
Ich brauche keine SSD, ich sehe ja oft genug im Umfeld wie die Haltbarkeit solcher HD's ist :D ich setze auf altbewährtes. 16K Cluster einrichten, auf möglichst großer HD, und dafür sorgen das Windows nicht ständig irgendwas treibt weil irgendwelche doofen Dienste rumspielen wollen.
Alte SSDs? Mittlerweile sind die genauso haltbar wie HDDs - wenn man sie richtig nutzt (geht halt mit XP nicht). Bisher ist mir nur meine älteste SSD verreckt, die eigentlich schon eh ausgemustert war :)
Hier merkt man schnell, wie gut die Backuplösungen sind.
Und XP ein Sicherheitsrisiko zu nennen, nur weil es alt ist, ist diese typische 0815 Medien Aussage (MS braucht Geld -> Software & Hardware & Werbeindustrie unterstützt Medien mit Geld->Medien sagen was Geldgeber will) und es wundert mich das so viele Leute die so viel begabter und besser im programmieren wie ich sind, auf diese Quatsch Panik mache und "Täglich 1000 Viren, Zombie Netze, Sicherheitslücken" Mythen rein fallen.
NEEEINNN man findet ja bspw. nicht genügen Lücken in Windows, die auch in alten Versionen vorhanden sind. Der Supportzeitraum ist zuende - es wird zeit alten Zeug lebewohl zu sagen und upzugraden. Wirst du früher oder später eh machen müssen, weil die neue Software nicht mehr zuverlässig auf XP laufen wird. Wobei hier MS eh vorbildlich ist. Kein anderer Hersteller hat so lange ein OS unterstützt, wie es MS aktuell macht und gemacht hat - mit Zeitansagen, wann der Support ausläuft etc.
Mit Angst macht mann Geld, und XP ist nach 12 Jahren mit SP3 so sicher wie nie zuvor, ein Rooter
hält die Ports dicht, Browser laufen in einer art Sandbox, und ein Virus muss erst mal durch Aufruf aktiviert werden (Dropper & Injector surf mal danach)..........und da soll ein Betriebsystem unsicher sein, nur weil es grade online über Port 80 ist ?
Es geht auch darum, wieviel Schaden entsteht, wenn mal was gewaltig schief läuft. Wäre jetzt nicht das erste mal, das eine Schadsoftware über verschiedene Stellen sich zugriff verschafft. Wobei viel rechte braucht man eigentlich nicht mehr. Man muss nur die Eigenen Dateien verschlüsseln können - und die kann der User ohne Probleme lesen. Es geht darum zu verhindern, das ungewollter Code nicht ausgeführt wird. Dazu muss man jedes Programm, das irgendwelche Dateien aus den Internet öffnen soll - sei es Bilder, Videos, Texte, PDFs, Docs etc. nicht durch eine Lücke anfällig ist. Dazu sollte man alle Software aktuell halten, die das machen - und dazu gehört schlicht und ergreifend das Betriebsystem dazu. Das öffnet viele Dateien. Wieviele Programme nutzen den IE als Renderengine, ohne das du es merkst. Macht ja PB ebenfalls. Und natürlich steht Software unter Beschuss, die jeder hat. Darum passiert ja deutlich mehr bei Windows als bei Linux/Mac - die letzteren sind schlicht viel weniger verbreitet.

Ich finde die Aussage, das man keine Updates braucht, recht lustig, wenn Viren wie Sasser schon 2004 das Gegenteil bewiesen haben. Der Beruhte immer noch auf eine Lücke, die damals geschlossen war. Es wäre eigentlich nichts passiert, hätten damals schon alle Updates gefahren.

Das größte Problem ist auch, das man die Lücken in Betrieb nicht merkt. Es läuft ja. Irgendwie. Leider. Würde die Kisten regelmäßig abstürzen, würde man sofort updaten. Dann wäre das Thema durch. Ich möchte aber nicht wissen, wieviele Probleme in Netz weg wären, wenn man regelmäßig updaten würde. Übrigens - der Router gehört auch dazu. Da findet man genügend kram, der auch schon ausgenutzt wurde und die Dinger hängen komplett in Netz. Es ist eigentlich überall das gleiche: halte die Scheiß Software Aktuell - es ist schlicht besser so.

p.s.: Das dir xXRobo_CubeXx dir recht gibt, würde mir zu denken geben - der ist mir zumindest nur durch Trollen aufgefallen :)
CodeArchiv Rebirth: Deutsches Forum Github Hilfe ist immer gern gesehen!
Nino
Beiträge: 1300
Registriert: 13.05.2010 09:26
Wohnort: Berlin

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von Nino »

xXRobo_CubeXx hat geschrieben:... seh ich genauso! Da sieht man, wer von den Medien verblendet ist und wer nicht. ;) :)
Das einzige was man im Moment hier gerade sieht ist, wer intolerant gegenüber anderen Meinungen ist und nichts als dumpfbackige Polemik von sich gibt.
GPI
Beiträge: 1511
Registriert: 29.08.2004 13:18
Kontaktdaten:

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von GPI »

@Nino
ich hoffe du meinst nicht mich. Zugegeben, ich steigere mich da gerne etwas rein. Gerade was Optimierungswahn angeht, ich bezweifle, das die meisten wirklich wissen, was sie da machen - oder noch wichtiger, warum die Einstellung so ist, wie sie ist. Und ich bin hier definitiv keine Ausnahme. Es muss halt laufen, das ist in vielen Fällen wichtiger als Optimierung auf eine Einzellösung. Die Anzahl der Leute die da *wirklich* Ahnung und Überblick haben, dürfte sehr klein sein. Ich glaube nicht, das man sie in so kleine Foren wie hier antreffen wird.

Software ist halt ein Kapitel für sich und Sicherheitslücken sind nunmal ein Risiko. XP ist seinerzeit noch recht unschuldig in das Internetzeitalter gestartet und ich glaube MS, wenn sie sagen, das es aus heutiger Sicht nicht mehr die Sicherheitsansprüchen gerecht wird, weil damals die Welt noch eine andere war.

Ich stell hier auch sehr viel ein und um, aber ich beschränke mich auf Lösungen, die mir das Betriebsystem bietet (früher bspw. mittels msconfig den Autostart ausnisten). Bootet die Kiste halt ein bischen länger. Dank SSD merk ich davon eh kaum was und selbst wenn: Schalt ich die Kiste ein und richte mir dann erst die Arbeitsunterlagen her oder hohle mir was zu trinken. Momentan warte ich eh am längsten, bis die Netzlaufwerke bereit sind :)

Es gibt einen netten Spruch, das eine unfähige Person nicht erkennen kann, das sie unfähig ist, weil die Fähigkeiten die man dafür braucht identisch sind mit den Fähigkeiten die man braucht um die richtige Lösung zu finden.

Ich seh es einfach simpel: Alles was ins Internet will, muss aktuell sein - ohne Ausnahme. Leicht zu merken und auch umzusetzen. Bspw. die Fritzbox. Wenn da eine alte Firmware drauf ist, kann man sie aus der Ferne komplett auslesen und dann bspw. teure Telefonate auf Kosten des Besitzers führen. Ist vorgekommen, kein fiktives Beispiel. AVM hat damals sehr schnell reagiert (unter eine Woche) und sogar Geräte aktualisiert, die eigentlich kein Update mehr bekommen. War eine beeindruckend lange Liste. Wenn man anfängt zu selektieren, dann schleichen sich schlicht Fehler ein. Es lassen sich einfach genügend Beispiele finden, wo es Probleme gab, die auf veraltete Software zurückzuführen ist. Bei der Heartbleed-Lücke haben auch einige behauptet, das die Lücke nicht dazu geeignet ist den Key auszulesen - bis der Gegenbeweis erbracht wurde. Auch ein gutes Beispiel, wie schwer es ist, die Gefährlichkeit einer Sicherheitslücke einzuschätzen.

Das ist halt der Punkt - man kann nicht alles wissen - und wie gesagt, ich mach da garantiert keine Ausnahme. Was macht man, wenn man keine Ahnung hat? Zwei Möglichkeiten: Man verschafft sich das Wissen - oder man vertraut auf jemanden der Ahnung hat. Man kann sich unnötig das Wissen von allen verschaffen. Das war mal vor Jahrhunderten möglich, als einzelne Personen quasi alles Wissen der damaligen Welt in sich vereint haben. Und in der Beziehung vertraue ich einfach MS, das die Updates nicht grundlos raushauen. Hätte ich kein Vertrauen in MS, würde ich nicht Windows einsetzen. Alles andere wäre inkonsequentes Verhalten. Aus den Grund hab ich auch Android abgestoßen, weil ich Google nicht traue und auch die Updatepoltik bei Android nicht für vertrauswürdig halte. Anderes Thema.

Gefährlich wirds imo, wenn man sagt: Setze XP mit Router ein, da passiert schon nichts. Ich bezweifle, das es so einfach ist. Besonders wenn man das anderen Usern rät, die weniger Ahnung haben oder es so schreibt, das man es als Rat oder Empfehlung missverstehen kann. Mein Rat ist da: Nicht an Dingen rumdoktern, die man nicht versteht und ändere nichts, was läuft - und wichtig: Die Updates sind da, weil eben etwas *NICHT* rund läuft, also installier sie! Zumindest wenn die Kiste Online ist. Wenns offline ist, ist es wirklich egal.

Win7 kriegt man schon ab 35 Euro ( http://www.amazon.de/Windows-Home-Premi ... B00HCGY0JW ), den Key einfach bei einer aktuellen Win10-Installations-CD/USB-Stick eingeben und das läuft. Über ein Upgrade von Win7 auf 10 kann man sicherlich streiten - ich habs nicht bereut und irgendwann muss man ja weiterziehen. Wobei ich sagen muss, man hat keine überwältigende Vorteile und Win7 wird noch weiter unterstützt. Nur wenn man Neuinstalliert, würde ich gleich Win10 nehmen - außer man braucht zwingend eine Software die nicht unter 10 läuft.

Ansonsten würde ich jetzt das Thema ruhen lassen - einig werden wir uns eh nicht :)
CodeArchiv Rebirth: Deutsches Forum Github Hilfe ist immer gern gesehen!
Nino
Beiträge: 1300
Registriert: 13.05.2010 09:26
Wohnort: Berlin

Re: Arbeitsbereich Ausrichtung nach AppBar größen Änderung

Beitrag von Nino »

GPI hat geschrieben:@Nino
ich hoffe du meinst nicht mich.
Uups ... nein, auf keinen Fall. Entschuldige bitte, wenn mein vorangehendes Posting diesen Eindruck erwecken könnte. :oops:

Ich meinte den Robo-Troll.
Antworten