Moja jedna tabela zawiera zwykle od 3 do 7 mln rekordów (od 2 z kawałkiem do ponad 4 GB).
Mimo że indeksy mam dobrze postawione, z przyczyn wiadomych (obszerność) sortowanie po nich nie jest szybkie...
Mam opcję rozbić tą tabelę na kilkadziesiąt innych, wg jednego głównego pola po którym sortuję. W ten sposób będę miał ok 50 mniejszych tabel.
Domyślam się że takie postępowanie przyspieszy operację na danych jeśli oczywiście nie będę czerpał ich z kilku tabel naraz?
Z tego co zrozumiałem to ustawianie indeksów tak jakby dzieli dane na poszczególne kategorie... jednak z sortowania wg nich nie jestem w przypadku tej tabeli zadowolony.
Podam przykład obrazujący mój przypadek (nie związany z newsami

Tabela główna = id, kategoria (np. mamy 40 różnych kat. newsów), news (miliony rekordów)
Rozbijam tą tabelę na 40 tabel - każda z nazwą kategorii newsów.
Idę dobrym tropem chcąc rozbić tabele na kilkadziesiąt tabel mniej zasobnych?
Dzięx za linki i sugestie.