Hallo leute,
wir importieren unsere Kundendaten hier aus einer excel-tabelle (csv) in unsere datenbank.
Darin sind die kunden-, address-, anbieterdaten... gespeichert.
Da es ziemlich viele Kunden werden können (sind), haben wir überlegt auf eine Normierung, der tabelle zu verzichten und alles in eine zu packen und damit bei späteren Abfragen auf unzählige joins (wheres) zu verzichten, da der Faktor geschwindigkeit sehr wichtig ist.
Die frage ist, ob die anfallende redundanz durch die nicht normierte tabelle zu groß wird, oder ob es akzeptabel ist.
Habt ihr vll erfahrungen/empfelungen... zu diesem thema?
Bringt das ganze überhaupt mehr geschwindigkeit?
...
PS: Wir denken, dass wir mögliche anomalien durch einen zusmmengesetzten primärschlüssel umgehen können, soll heißen dass wir mehrere schlüsselkandidaten haben, welche wir prüfen.
Alle Updates und Inserts werden über eine EINDEUTIGE kunden ID bzw. rufnummer iniziiert.
mfg
Ani
wir importieren unsere Kundendaten hier aus einer excel-tabelle (csv) in unsere datenbank.
Darin sind die kunden-, address-, anbieterdaten... gespeichert.
Da es ziemlich viele Kunden werden können (sind), haben wir überlegt auf eine Normierung, der tabelle zu verzichten und alles in eine zu packen und damit bei späteren Abfragen auf unzählige joins (wheres) zu verzichten, da der Faktor geschwindigkeit sehr wichtig ist.
Die frage ist, ob die anfallende redundanz durch die nicht normierte tabelle zu groß wird, oder ob es akzeptabel ist.
Habt ihr vll erfahrungen/empfelungen... zu diesem thema?
Bringt das ganze überhaupt mehr geschwindigkeit?
...
PS: Wir denken, dass wir mögliche anomalien durch einen zusmmengesetzten primärschlüssel umgehen können, soll heißen dass wir mehrere schlüsselkandidaten haben, welche wir prüfen.
Alle Updates und Inserts werden über eine EINDEUTIGE kunden ID bzw. rufnummer iniziiert.
mfg
Ani
Comment