Little John hat geschrieben:Nein im Moment nicht.
Gut!
Spaß beiseite: Theoretisch können CSV-Dateien unbegrenzt
groß sein. Ich muss beispielsweise CSV-Dateien parsen, die
schon mal 500 MB groß sind. Diese komplett in den Speicher
laden zu wollen ist natürlich suboptimal.
Ich verwende übrigens für obige Dateien die DotNet
TextFieldParser-Klasse.
In PB habe ich testweise ODBC verwendet, was aber aufgrund
der zu generierenden Schema.ini ein ziemliches Gehampel ist.
Little John hat geschrieben:Z.Z. wird jeder Record in einer Datenstruktur gehalten, die es in PB nicht gibt.
welche Sprache verwendest Du hier?
Little John hat geschrieben:In welcher Form sollte denn ein Datensatz am besten an die SQLite-Datenbank übergeben werden?
Schwierig...
Normalerweise liest man die erste Zeile ein, parst sie und kennt
dann die Anzahl der Felder. Aufgrund dieser Information kann man
dann die Tabelle erstellen:
danach wird Zeile für Zeile geparst und in die Tabelle eingefügt:
Code: Alles auswählen
Insert Into CSV (c1, c2, c3, ...) Values ('" + v1 + "', '" + v2 + "', '" + v3 + "'...)
soweit die Theorie...
Was aber, wenn eine Zeile mehr Felder als die anderen Zeilen enthält?
(ist meines Erachtens CSV-technisch erlaubt)
Also müsste man die CSV zweimal parsen: Ein Lauf, um die max. Anzahl
der Felder zu ermitteln (und dann die Tabelle zu erstellen)
und einmal, um die Daten zu ermitteln. Das macht die Sache natürlich nicht
schneller...
Grüße ... Kiffi