W ramch przygotowań do olimipady natchnąłem się na takie zadanie:
Cytat
Załóżmy, ze dwa komputery stosują multipleksowanie z podziałem czasu do wysyłania pakietów o rozmiarze 1000 bajtow przez dzielone łącze, które pozwala na przesyłanie 64 000 bitów na sekundę. jeśli technika sieciowa wymaga, żeby po wysłaniu pakietu przez komputer następny wysyłający musiał odczekać 100 mikrosekund, to ile czasu zajmie przesłanie pliku o rozmiarze 1 megabajta ?
I oto moje rozwiązanie:
1000 bajtów - rozmiar pojedyńczego pakietu
1 megabajt - rozmiar pliku
64 kilobitów na sekunde - prędkośc transmisji
100 mikrosekund - czas pomiędzy pakietami
n - illość pakietów
Całość transmisji będzie wyglądać w ten sposób:
Cytat
|pakiet|0,0001 s|pakiet|0,0001 s|...|...|pakiet|
czyli będzie n pakietów, oraz n-1 odstępów po 0,0001 s.
64 kilobity = 8 kilobajty
1024/8=16 s - czas potrzebny do transmisji samych pakietów bez uwzględnienia odstępu między pakietami
16 s + n odstępów po 0,0001 s.
1 MB - 1048576 bajtów
n = 1048576/1000(rozmiar jednego pakietu) = 1049 pakietów
1049 - 1 = 1048 - ilość odstępów pomiędzy pakietami
0,0001*1048 = 0,1048 - czas przeznaczony na przerwe między pakietami
16 + 0,1048 = 16,1048 s.
Wydaje mi się, że zadanie jest dobrze rozwiązane, jednak prosze Was o sprawdzenie.
Pozdrawiam
Darektbg