Hallo,
ich habe hier den Auftrag eine Datenbanktabelle mit 20 Millionen Einträgen zu verwalten. Diese Datensätze können sich täglich ändern bzw. es kommen neue hinzu.
Zusammen ist das ein Umfang von 1,4 Gigabyte.
Als Datenbank soll der MS SQL Server zum Einsatz kommen.
Ist das sinnvoll oder soll ich lieber eine andere Datenbank vorschlagen?
Ich denke, es ist sinnvoll die Datenbank auf einen eigenen physichen Server auszulagern. Vielleicht sogar mehr als einer.
Ich frage mich, ob normale Update bzw. Select Statements vielleicht zu langsam dafür sind. Gibt es Möglichkeiten des optimierten Zugriffs?
Ich habe etwas respekt vor der schieren Anzahl der Datensätze. Deshalb lieber 2 fragen zuviel als das ich da Mist baue.
Gruß,
Stefan
ich habe hier den Auftrag eine Datenbanktabelle mit 20 Millionen Einträgen zu verwalten. Diese Datensätze können sich täglich ändern bzw. es kommen neue hinzu.
Zusammen ist das ein Umfang von 1,4 Gigabyte.
Als Datenbank soll der MS SQL Server zum Einsatz kommen.
Ist das sinnvoll oder soll ich lieber eine andere Datenbank vorschlagen?
Ich denke, es ist sinnvoll die Datenbank auf einen eigenen physichen Server auszulagern. Vielleicht sogar mehr als einer.
Ich frage mich, ob normale Update bzw. Select Statements vielleicht zu langsam dafür sind. Gibt es Möglichkeiten des optimierten Zugriffs?
Ich habe etwas respekt vor der schieren Anzahl der Datensätze. Deshalb lieber 2 fragen zuviel als das ich da Mist baue.
Gruß,
Stefan
Comment