Announcement

Collapse
No announcement yet.

Performance verknüpfte Tabellen im Internet

Collapse
X
  • Filter
  • Time
  • Show
Clear All
new posts

  • Performance verknüpfte Tabellen im Internet

    Hallo,

    hab mich vorgestern hier angemeldet – super interessant und hilfreich das Forum.

    Und jetzt gleich eine Frage:

    Wir ändern zur Zeit unsere Firmensoftware von Access auf Mysql + Java. Zur Zeit läuft das Programm in Access nur auf dem lokalen Server mit ca. 10 Usern (jede NL hat ihr eigenes Programm) – später soll eine gemeinsame Anwendung auf verschiedenen Servern (evtl. auch nur auf einem) laufen und die User übers Internet zugreifen.
    Es wird u.a. folgende Datenbanken geben:

    Kunden auf die alle Niederlassungen zugreifen
    Niederlassung 1
    Niederlassung 2 etc jeweils nur für die eigene NL

    Die kunden-db hat die Tabellen
    Kunden generelle Kundendaten (zur Zeit an die 12.500 Datensätze)
    Kontakt Adressdaten und Tel. etc
    Sprache jeweils nur id + Land + Landkennung
    Nationalität -„-
    Land -„- alle 3 Tabellen enthalten die gleichen Daten
    Kundenart id + Kundenart
    Niederlassung id + Niederlassung
    Bankverbindung Daten Bankverbindung

    Die Tabelle Kunden ist jeweils mit den anderen Tabellen verknüpft.

    Aus den db der Niederlassungen muß auch auf die db kunden zugegriffen werden.

    Von der Normalisierung her wäre die Kunden-db (meiner Meinung nach) perfekt – aber ich habe Bedenken, wie sich die verknüpften Tabellen später im Internet bez. der Performance verhalten. Ist evtl. eine große Tabelle besser als viele kleine verknüpfte? Ich bin da etwas unsicher, weil Access schon im lokalen Netzwerk bei verknüpften Tabellen ätzend langsam wird.

    Kann mir vielleich jemand einen Tip geben?

    Liebe Grüße aus Teneriffa
    Cleo

  • #2
    Originally posted by cleo-tf View Post
    Ich bin da etwas unsicher, weil Access schon im lokalen Netzwerk bei verknüpften Tabellen ätzend langsam wird.
    Mal von deinem Datenmodell abgesehen - das könnte ich erst richtig beurteilen, wenn ich die Aufgabe der DB genau kennen würde - kannst da beruhigter an die Sache rangehen. Access ist nun mal nicht für Netzwerkzugriffe entwickelt worden (ja, Access kann das und mit 2 oder 3 Leuten geht das auch, aber dann...). MySQL ist da schon performanter (viel performanter), da es ein DBMS ist, welches für Netzwerkzugriff geschrieben wurde.
    Generell solltest du den "keine redundanzen" ansatz konsequent verfolgen und dein Datenmodell beruhigt auf viele kleine und mittlere Tabellen verteilen (Stichwort Skalierungsfähigkeit).
    "A common mistake that people make
    when trying to design something completely foolproof
    is to underestimate the ingenuity of complete fools.
    "
    >>> Douglas Adams, Mostly Harmless
    -------------------------------------------------------
    Techcrawler.de | JaMT | deCHK | Extra-Bonus-Shopping.de | Scour

    Comment


    • #3
      Bei 10.000 Datensätze (selbst bei 100.000 oder 1 Mio. Datensätzen) hat eine moderne SQL-Datenbank keine Problem (solange genügend RAM zur verfügung steht). Wenn Performanceprobleme vorhanden sind liegt das zu 90% an schlechten SQL-Code bzw (Abfrage per Full-Table-Scan, unnötiges komplettes kopieren der Tabellen zum Client, ...)

      Comment


      • #4
        Hallo Sascha und Bernhard,

        vielen Dank für Eure Tips. Jetzt kann ich beruhigter drangehen und auch den "keine redundanzen" ansatz konsequent verfolgen.

        Danke :-)

        Liebe Grüße aus Teneriffa
        Cleo

        Comment

        Working...
        X