Witam,
Chcę stworzyć dużą bazę danych na potrzeby tesów (sprawdzanie czasu zapytania)- 1.5GB , 1.5mln rekordów,6 pól, 1rekord= 1KB .
Pytanie: czy jeżeli stworzę te 1.5mln rekodów na podstawie unikatowych 2000 rekordów, które się powtarzają - to czas zapytania będzie miarodajny?
Czy może lepiej wygenerować losowe dane, bo baza "wyczuje", że dane się powtarzają co 2000 rekordów i przez to zoptymalizuje czas wyszukiwania.