Seite 1 von 1

Website schnellstmöglich / einfach einlesen

Verfasst: 11.11.2005 20:11
von Delle
Hallo,

was ist die einfachste Möglichkeit eine Website in den Speicher/String einzulesen?

In Strings gehen ja angeblich nur 64.000 Bytes rein,
mit Network-Befehlen müßte man erst die URL zerstückeln
wenn z.B. nicht nur die index sondern irgendeine spezielle
Seite in einem Unterordner ausgelesen werden soll.

Verfasst: 11.11.2005 20:34
von Konne
Zum String problem:
Machs mit allocatememory() das ist auf jedenfall sauberer als einen Stringhack. Allerdings auch schwerer.

Zum Thema Website?
Willst du den die Seite aus dem iNet runterladen? oder haste se auf der Festplatte???

Verfasst: 11.11.2005 20:41
von freedimension
Frage zur Begrifflichkeit: Willst du eine Seite oder eine Site runterladen? Mich hat das mit dem Unterordner etwas stutzig gemacht :)

Verfasst: 11.11.2005 21:04
von Delle
Geht um 1 Seite, nicht Site.

Hab es momentan so gelöst:

Code: Alles auswählen

URLDownloadToCacheFile_()

If ReadFile(0,Datei$)
While Eof(0) <> 0
Debug ReadString()
Wend
CloseFile(0)

  Else

    MessageRequester("Information","Konnte Datei nicht öffnen!")

  EndIf
Das Problem: Im Debug-Fenster wird nichts angezeigt. Die Datei aber existiert und ist auch mit Daten voll...

Verfasst: 12.11.2005 22:58
von walker
Delle hat geschrieben:Geht um 1 Seite, nicht Site.

Hab es momentan so gelöst:

Code: Alles auswählen

URLDownloadToCacheFile_()

If ReadFile(0,Datei$)
While Eof(0) <> 0
Debug ReadString()
Wend
CloseFile(0)
Die Ausgabe erfolgt nicht, weil Deine Schleife nie durchlaufen wird :freak:

EOF() ist > 0 WENN das Dateiende erreicht wird, ansonsten = 0
Also muss es heissen:

Code: Alles auswählen

While Eof(0) = 0
Debug ReadString()
Wend
Ulf

Verfasst: 12.11.2005 23:48
von Delle
Das Problem hatten wir ja im anderen Thread schon gelöst,
aber dafür konnte ich ja nichts wenn es 2x so in der
offiziellen Doc und bei den Beispielen steht...