Masz tutaj do czynienia z kilkoma roznymi przypadkami:
1. Jesli robisz join po kluczach (klucze sa przechowywane w sposob posortowany), to join dwoch tabel miałby taką złożoność:

Gdzie T1 to rozmiar pierwszej tablicy, T2 rozmiar drugiej tablicy. To oznacza, że baza danych wykona tyle operacji ile jest suma rekordów obu tabel.
2. Jeśli robisz join po kolumnach które nie są kluczami, wtedy naiwny algorytm jest o złożoności kwadratowej:

, bo wtedy musi kazdy wiersz porownac z kazdym wierszem z drugiej tabeli. Ale bazy danych stosuja wydajniejsze metody, gdzie najpierw sortuja dane wydajnym algorytmem o zlozonosci
a potem wykonuja ta sama operacje co w przypadku przypadku numer 1, tak, ze zlonozonosc wyjdzie Ci na poziomie:

.
(czyli to samo co #1 + koszt sortowania).
3. Jesli robisz kilka prostych zapyan bez joinów to wykonujesz tyle operacji:
Czyli, tyle ile rowna sie suma wszystkich rekordow we wszystkich tabelach (zostawmy na razie przypadki z predykatami - klauzulami WHERE).
Wniosek: Jak robisz Join po kluczach, to nie ma rożnicy z czystko obliczeniowego punktu widzenia, i to co zaczyna robić różnicę, to ile danych wysyłasz i odbierasz od i do serwera bazodanowego jako overhead. Wiec w przypadku joina po kluczach, warto to robic za jednym zamachem na serwerze bo wtedy nie marnujesz czasu na inicjacje polaczen, obliczanie planu wykonania zapytania i innych rzeczy ktore musza sie wykonac przy kazdym zadaniu, bez wzgledu na jego zlozonosc.