SmokAnalog
28.02.2015, 00:59:55
Cześć,
komputery wciąż są bardzo powolne, takie jest moje zdanie. Postęp też znacząco zwolnił. Czy komputery sprzed 5-ciu lat są dziś przestarzałe? Nie. To dowód na to, że idziemy do przodu bardzo powoli.
Zastanawiam się kiedy nadejdzie prawdziwy przełom. Nie mam tu na myśli wzrostu wydajności o 200% czy 500%, ale o czasy, kiedy wydajność przestanie nad interesować. Większości ludzi pewnie trudno to sobie wyobrazić, bo "przecież wydajność to jeden z podstawowych tematów związanych z komputerami". Tak jest teraz, ale kiedyś tak nie będzie.
Wydajność zawsze będzie ograniczona, ale przestanie być zauważalnym problemem w momencie, kiedy sprzęt przestanie ograniczać potrzeby. Wtedy powiem, że komputery nie są już powolne

Do tego etapu brakuje nam jeszcze bardzo dużo. Dzisiaj zachwycamy się, kiedy proste interfejsy graficzne w telefonach komórkowych działają bez przycięć. Kiedyś oczywistością będzie to, że film będzie się renderował w odczuwalnym czasie 0 sekund. To otworzy zupełnie nowe możliwości i stworzy ogromny komfort pracy.
Ktoś powie, że potrzeby będą rosły razem z wydajnością sprzętu. Zgadzam się, ale to nie jest równy wyścig. Jakość obrazu nie będzie szła do przodu w nieskończoność, bo ludzkie oko nie ma nieskończonej dokładności widzenia. Ilość danych nie będzie się zwiększała w nieskończoność, bo liczba ludzi na naszej planecie nie zdziesiątkuje się.
Ktoś jeszcze powie, że dzisiejsze komputery są szybkie i się czepiam. Pamiętajmy, że to samo mówiono 20 lat temu i wcześniej. Komputery nigdy wcześniej nie były szybsze niż dzisiaj, ale to nie znaczy, że są szybkie.
Jakie jest Wasze zdanie na ten temat?
Temat super rzuciles.. jest i glupi, i madry, i prosty i skomplikowany. Zobaczymy jaka droga pojdziemy aczkolwiek postaram sie wybrac ta madrzejsza i bardziej skomplikowana choc tutaj linia jest cienka miedzy scfi a nauka wiec jak przegne to sory.
Moim skromnym zdaniem moment ten jest juz calkiem calkiem blisko. Mowisz o wydajnosci, przetwarzaniu informacji... prawda jest taka ze komputery na dzisiejsze potrzeby ludzi sa wystarczajaco szybkie, czy sasiad Zenek wiedzialby co zrobic z 32 gb ramu + 8 rdzeni po 3-4ghz? pewnie ze nie. ja bym to zajechal w miesiac zabawy z angularem przy big data. ale teraz patrz jaki myk... to dziala progresywnie. Sa komputery ktore maja po 80 rdzeni, 320 gb ramu i ja nie wiedzialbym co z nimi zrobic a przyjdzie taki starszy kolega, chocby Python (

), pewnie wie wiecej o administracji sieci ode mnie i Ci ogarnie jak sie stawia chmury i on juz ogarnie, idac dalej sa komputery uniwersyteckie ktore maja po kilka set procesorow i kilka set tysiecy tera ramu co nawet najlepszego na tym forum by zagiely, ale co z tego jak przyjdzie jeden z drugim i ustawia to na liczenie trajektorii lotu jakiejs komety, gdzies w kosmosie.
Teraz - nie potrzebujemy wiecej, stad wynika fakt ze nie ma juz takiego wzrostu wydajnosci jak kiedys, zeby ten boom znow nastapil za pare lat a wydaje mi sie ze krytycznym punktem bedzie polaczenie czlowieka do komputera, to bedzie kolejna rewolucja industrialna i przelom nie tylko naukowy co kulturowy. Wtedy juz niestety procesory krzemowe i tranzystory, miroprocesory nie wystarcza do obsluzenia biliardow informacji jakie nasz organizm generuje. Tu widze klucz do rozwoju komputerow kwantowych ktore powinny byc tak szybkie - jak nasze mozgi zeby sprawnie sie z nami integrowac. Nic innego nie przychodzi mi do glowy jako motor dla dalszego rozwoju tej technologi.. bo i po co? zeby wiecej big data danych klientow analizowac i dopasowywac lepsze oferty? rzygac mi sie tym chce. nic juz w IT nie wymysla co mnie zaskoczy, i nie mowie tu o jakis stronach internetowych i startupach... technologia to nie strony. to miliardy mozliwosci ktore wydaje mi sie - juz osiagnelismy.
jeszcze tylko... cybernetyka, porzadny naped do latania po kosmosie i tyle. koniec komputerow.
edit: takze nie wazne ile bys teraz procesorow, ghz wcisnal do kompa... uzytkownik juz tego mocno nie odczuje ( zakladajac ze wszyscy mieli by w miare nowoczesny sprzet i udalo by sie to ustabilizowac ), zeby teraz byla widoczna zmiana i realny rozwoj technologii to wydaje mi sie ze nie zbedna jest integracja ludzi z maszynami. to da koniecznosc skonstruowania takich procesorow ktore beda informacje przetwarzaly miliardy razy szybciej niz dzisiejsze pcty i stacje robocze.
SmokAnalog
28.02.2015, 01:31:26
Tzm, masz właśnie na ten temat pogląd dokładnie taki jak większość. Wzrost wydajności nazywasz setkami terabajtów, rdzeniami, gigahercami - czymś kosmicznym. Takie podejście jest mocno skażone sytuacją obecną, gdzie do osiągnięcia lepszej wydajności trzeba coś "dokładać" w ilościach, które wydają się śmieszne. Nie oszukujmy się - przełom nie nastąpi na obecnym TYPIE sprzętu. Ewentualna rewolucja nastąpi, kiedy zmienią się materiały, a może i cała architektura sprzętu.
Mówisz, że na dzisiejsze potrzeby komputery są wystarczająco szybkie. Tu też się nie zgodzę i znowu powiem - "to samo mówiono 20 lat temu". Człowiek przyzwyczaja się do ograniczeń i trudno sobie wyobrazić ich brak. Tak samo było, kiedy ekrany w telefonach były monochromatyczne, nie czuło się jakiegoś braku, bo nie było punktu odniesienia do kolorowego ekranu. Ja jestem typem człowieka niecierpliwego i każda sekunda czekania na reakcję maszyny mnie irytuje. Mam niezłego laptopa z dyskiem SSD, 8 GB RAM-u i procesorem i7, ale nie odważyłbym się powiedzieć, że szybkość jest wystarczająca. Dysk SSD robi ogromną różnicę, ale nadal czekam aż wykona się to czy tamto. Czekanie = archaik. Nie wspomnę już o maszynach typu bankomaty, gdzie czeka się wiele sekund na reakcję. Wiem, że wiele z tego czasu zajmuje połączenie się z bankiem, ale to również wliczam w temat tego oczekiwanego przełomu.
No to jak takis nerwowy ze Cie czekanie wkurza to zloz sobie komputer za 5k+, wloz tam 64gb ramu i zobaczysz ze tez Ci przymuli. Ilosc to nie wszystko. Poza tym, wydaje mi sie ze z nas dwoch Ty zle podszedles do tematu albo zle go przedstawiles bo uderzasz w rzeczywista wydajnosc komputerow teraz, co mnie czy obchodzi cos sie laduje 500us czy 50us? Jak Cie to meczy to melisy zaparz, ja pamietam czasy ze na unrealu 1 sie palily procesory z przydomkiem turbo, dla mnie wydajnosc to cos innego niz sekunda czekania. Patrz... Ja Ci wyjechalem z uniwersyteckimi super komputerami a T sprowadzasz rozmowe do i7, stary Twoj pentium to kalkulator w morzu potrzeb przelomu rewolucj wydajnosci pctow. Nie bierz tego do siebie ale masz sprzet jak kazdy w tych czasach. A jesli chodzisz z nanozegarkiem no to jasne... Twoj i7 jest lepszy od mojego X740 i co z tego? informacje czytam z ta sama szybkoscia(wzglednie), filmy laduja mi sie 20mb/s, gta iv chodzi z palcem w dupie na full, angular smiga jak bajka przy 8gb ramu aczkolwiek, zdarzy mu sie pomyslec dluzej niz netbeansowi. ale to normalne. Musimy Chyba pomyslec o czym ta rozmowa ma byc, bo widze ze ja wybralem ten naukowy tor, a Ty ten przyziemny.
SmokAnalog
28.02.2015, 01:57:29
Rozmowa jest o sprzęcie dla zwykłych zjadaczy chleba, a nie o sprzęcie dla naukowców. Poza tym sprzęt dla naukowców nie różni się aż tak bardzo od naszego, wzrost wydajności nawet kilkudziesięciokrotny to jeszcze nie jest przełom, o którym mówię. Na Unrealu się paliły procesory, ale czy dzisiaj nie jest podobnie z nowymi grami? Dalej trzeba inwestować w jakiś sprzęt z górnej półki (który jest drogi, duży i głośny), żeby móc grać w nowe gry, które wcale graficznie nie powalają. Owszem, są pięknie W PORÓWNANIU do tego co znamy, ale obiektywnie świetnej grafiki trójwymiarowej w grach jeszcze nie było. To tylko moje zdanie oczywiście. Włącz sobie choćby głupie Sims 4 (nie, nie zaliczam tej gry do ładnych graficznie) i powiedz mi, że wydajność tej gry nie przeszkadza w odbiorze.
Dziwię się, że nie przypominasz sobie operacji, na które czekasz o wiele dłużej niż 1s. A co z włączaniem/wyłączaniem komputera, renderowaniem filmów, rozpakowywaniem plików, pobieraniem danych i wieloma innymi czynnościami? Nie rozumiem też dlaczego mnie atakujesz z tą melisą. To, że ktoś jest wymagający i nie zatrzymuje się na tym co jest, sprzyja przełomowi. Być może nie odczuwasz potrzeby przełomu teraz, ale gwarantuję Ci, że gdybyś dostał taki opisywany przeze mnie sprzęt i potem wrócił do swojego, to złapałbyś się za głowę. Samo to, że taka ogromna przepaść jest wyobrażalna (chociaż nie wiem czy w zasięgu Twojej wyobraźni) pokazuje, że jest jeszcze bardzo, bardzo dużo do zmiany w kwestii maszyn.
Forti
28.02.2015, 02:20:06
Panowie.. już są "kwantowe" komputery które działają. Nie są one w pełni znaczeniu tego określenia "kwantowe". Masz D-wave którzy robią wielkie postępy.
To jest temat dzisiaj taki sam jak obecne komputery 30-60 lat temu (ciężko mi dokładnie to określić...). Jednak za kilka-kilkanaście lat będzie coraz powszechniejsze. Mnie tylko przeraża programowanie takiego cacka

chętnie bym to "obczaił".
Tylko niech mi ktoś nie zacznie pisać, że w wielu sytuacjach one są wolniejsze od obecnie powszechnej technologi. Komputery kwantowe to stadium "embrionalne" wręcz, trzeba czekać.
Wyobraź sobie "moc" Prometheus'a w wymiarach telefonu - pewnie się teraz zapędziłem, ale to jest dopiero interesująca przyszłość.
Ostatnio dużo się mówi o AI. Google stworzyło program, który sam uczy się grać i wygrywać w klasyczne gry (obecnie 41 tytułów nauczył się SAM). Microsoft ma algorytmy do przepowiadania przyszłości (wszystkie prócz jednego oscara w tym roku - no .. to może nie było trudno, ale przykładów jest znacznie więcej). Czasami żałuje, że istnieje mała szansa abyśmy dożyli takiej prawdziwej robotyki z AI obcującej z nami na codzień... chociać, kto go tam wie
SmokAnalog
28.02.2015, 02:27:06
Problem AI to akurat kwestia algorytmiki, nakładu ludzkiej pracy, a nie sprzętu.
Myślę, że programowanie będzie w przyszłości znacznie łatwiejsze niż dzisiaj. Nie chcę odpływać totalnie z wizjami, więc załóżmy, że dalej pisze się kod. Łatwiejsze będzie dlatego, że zniknie temat optymalizacji kodu pod względem wydajności, po prostu to się nie będzie opłacało. Odczuwalny zysk na wydajności będzie zerowy. Dobry programista będzie pisał czytelny, elastyczny i pozbawiony błędów kod i na tym będzie polegała jego praca. Nie będzie żadnych półśrodków, kompromisów w celu zwiększenia wydajności kodu. Kod będzie piękny.
r4xz
28.02.2015, 09:48:39
Cytat(SmokAnalog @ 28.02.2015, 02:27:06 )

Problem AI to akurat kwestia algorytmiki, nakładu ludzkiej pracy, a nie sprzętu.
Chcesz powiedzieć, że sprzęt jaki powstaje to nie ciężki nakład ludzkiej pracy, a krasnoludki?
Cytat(SmokAnalog @ 28.02.2015, 02:27:06 )

Myślę, że programowanie będzie w przyszłości znacznie łatwiejsze niż dzisiaj.
Wręcz przeciwnie, masz już w swoim komputerze zapewne z 500 rdzeni (karta graficzna) - umiesz je wykorzystać? Zgadza się, jest to "ciężkie", ponieważ są specjalizowane, ale dobrze pokazują, że póki co wymaga się od programisty większej wiedzy. Widać też że niektórych problemów nie da się rozwiązać takim tokiem rozumowania (tak jak innych algorytmów wielomianowo dlatego zawsze będzie za mało). Swoją drogą sprawdź sobie jakiś dokładny algorytm rozwiązujący np. problem sumy podzbioru i sprawdź o ile będzie wstanie policzyć więcej w rozsądnym czasie (np 1 min) jeśli zwiększymy wydajność komputera 2-krotnie. Obrazowo wygląda to mniej-więcej tak, że umiemy to zrobić dla 1000 liczb (liczby przykładowe), a przy 2x zwiększeniu wydajności dla 1001 liczb (czyli 100x zwiększenie wydajności to nic... nadal zabija nas algorytm).
Odnośnie procesorów kwantowych, zaryzykował u nas na uczelni jeden z profesorów stwierdzenia (a właściwie powiedział to z dużym przekonaniem), że zanim one powstaną (jako nadające się do komercyjnego użytku) to nauka pisania pod nie aplikacji stanie się nieopłacalna.
Cytat(SmokAnalog @ 28.02.2015, 00:59:55 )

Dzisiaj zachwycamy się, kiedy proste interfejsy graficzne w telefonach komórkowych działają bez przycięć. Kiedyś oczywistością będzie to, że film będzie się renderował w odczuwalnym czasie 0 sekund. To otworzy zupełnie nowe możliwości i stworzy ogromny komfort pracy.
Zachwycasz się tym, bo uruchamiasz GUI sprzed 20lat na współczesnej technologii, to równie dobrze mógłbyś wgrać na telefon nawet sprzed 5 lat, windows 95 i też byś się zachwycał szybkością jego działania.
Rozwój chociażby procesorów zatrzymał się chyba z 10 lat temu, fakt, doszły rdzenie ale nie zwiększyło to ich taktowania, nie tak jak można było to zaobserwować na przełomie wieku i tu jest problem, bo zamiast zaprzestać pogoni za rdzeniami, nie rozwiązano podstawowego problemu z jakimi borykają się komputery od początku ich istnienia... chłodzenie.
Nie spotkasz się też ze wspomnianym renderowaniem i lepszym komfortem pracy... lenistwo programistów jest silniejsze od chęci optymalizacji czegokolwiek. Dobrym przykładem są tu graficy komputerowi którzy dzisiaj robią strony parallax i nie ma w nich za grosz indywidualizmu czy kreatywności, to samo czeka programowanie.
Posio
28.02.2015, 11:19:09
Problem obliczeniowy przy SI to jedno z najmniejszych zmartwień. Największym jest to, że komputery nie posiadają żadnych funkcji poznawczych a człowiek tak. Nie są to tylko zagadnienia z dziedziny algorytmiki itp. Tu głównie wchodzi wiedza o ludzkim mózgu. Sami mamy o nim bardzo małe pojęcie, praktycznie nie wiemy o 90% procesów które się w nim odbywają a tym bardziej jak się odbywają. Możemy co najwyżej na ta chwile gdybać, że jakieś zachodzą. Człowiek zawsze wzoruje się na przyrodzie i tak samo jest w tym przypadku. Wiemy ze za działanie funkcji poznawczych odpowiada jakiś fragment kory mózgu, ale nie mamy pojęcia, jak on dokładnie działa. Z tego powodu, póki co, nie uda nam się przenieść tego do naszyn. Inną kwestią są zagadnienia z szeroko pojętej psychologii. W głównej mierze chodzi o poziom świadomości (mogłem pomylić nazwe). Dziecko podobnie jak jak szympans posiada 3 poziom świadomości, wie ze jest, wie ze jest ktoś inny, wie, że ktoś inny wie, że dziecko jest. Dorosły człowiek jest na poziomie około 7. I tu jest pytanie, jak zaimplementować to w maszynie? Nad SI toczy się wiele dyskusji, bada to wielu ludzi którzy mają o tym pojęcie, nie to co my. W każdym razie, rzekome SI Google czy MS , to nic innego jak tylko analiza podanych na talerzu wielkich ilości danych.
SmokAnalog
28.02.2015, 11:47:23
Posio, dokładnie jest tak jak mówisz. Sztuczna Inteligencja na przyzwoitym poziomie powstanie, kiedy to ludzie poznają czym tak naprawdę jest inteligencja i będą potrafili ją opisać. Ja jestem zdania, że algorytmicznie da się wyrazić absolutnie wszystko, łącznie z ludzkim zachowaniem, wliczając w to jego emocje, "nieracjonalne" zachowania i tak dalej. Ale nie chciałbym, żeby ta dyskusja była o sztucznej inteligencji, może stwórzmy do tego osobny temat.
!*!, twoje podejście jest totalnie antywizjonerskie, zresztą nie tylko twoje jak widać. Mówisz, że nigdy się nie spotkam z taką sytuacją, że zobaczę renderowanie w czasie 0 sekund, "bo lenistwo programistów". A potrafisz sobie wyobrazić taką sytuację, że sprzęty z ogromną nawiązką potrafią sprostać każdemu wyobrażalnemu problemowi? Nie mówię tu o jakichś obliczeniach dla naukowców, tylko o zastosowaniach domowych i ludzi z branży filmowej, graficznej itd. Jakie tu znaczenie ma lenistwo programistów? Dopóki ktoś celowo nie obciąży algorytmu miliardami niepotrzebnych operacji, to taki sprzęt dałby radę. Dzisiaj musimy się liczyć ze sprzętem, ale ja wierzę, że kiedyś tak nie będzie. Nie będzie trzeba oszczędzać na każdej operacji, bo tak jak mówiłem - to się nie będzie opłacało. Tak jak dzisiaj nie opłaca się na przykład oszczędzać bajtów na dysku i dlatego piszemy ładnie sformatowany kod, nie zastanawiamy się czy dajemy puste linie, czy chrzcimy zmienne długimi nazwami i tak dalej. To jest na tej samej zasadzie, tylko skala się zmienia.
r4xz, Twojej wypowiedzi nie ogarniam, więc nie skomentuję.
Zaskakuje mnie, że tak wielu z was ma tak zablokowaną wyobraźnię i jako punkt odniesienia traktuje teraźniejszość, czyli rok 2015. Nie potraficie dać się ponieść wyobraźni, a postęp traktujecie w kategoriach dokładania rdzeni. Z Takim nastawieniem, w latach 80-tych zostałbym wyśmiany, gdybym mówił o trójwymiarowych grach full hd, "bo przecież komputer musiałby być ogroooomny i by się spalił". No tak, Commodore 64 by się spalił.
@
SmokAnalog - mylisz wizjonerstwo z realnymi możliwościami człowieka. Tekst o tym, że ogranicza Nas wyobraźnia jest może i dobry, ale dla piskliwych nastolatek

Chcesz sprzętu który będzie mógł sprostać każdej operacji którą wykonuje, czyli mówiąc krótko, sprzęt ma być z gumy i elegancko się naginać. Ale załóżmy że tak będzie... cofnijmy się w czasie, jest tok 2001, nie pamiętam która wersja Adobe Photoshop jest aktualna, ale może być to nawet CorelDraw9. Zaawansowane programy graficzne które potrzebowały mocy obliczeniowej, aby stworzyć w nich coś naprawdę pięknego, czy chociażby nałożyć blur na obraz przeznaczony do druku, dość duży. W tamtym okresie pochłaniały zasoby bardziej niż wentylator kurz, programiści musieli liczyć się z tym że sprzęt ich ogranicza i programy te działały jak działały, w większości przypadków, nawet na sprzęcie dedykowanym w pracowniach, było słabo. Dziś w roku 2015 sprzęt jest lepszy, wydajniejszy, ma więcej ramu i programy mogą skakać po rdzeniach jak szalone czy nawet wykorzystywać moc kart graficznych... ale co się stało z programami? Działają szybciej, ale... nadal się dławią przy wspomnianych operacjach, więc co się stało? Zawiódł sprzęt, program, a może jedno i drugie? Idąc dalej, mamy rok 2390, komputery w zegarkach mają większą moc obliczeniową niż wszystkie komputery jakie wymyślono do 2015 razem, a na dodatek mogą czerpać energię z kosmosu z wykorzystaniem USB80 przez gwiazdki na niebie, bo kto bogatemu zabroni... Odpalamy na nich program graficzny... i zgadnij, czemu będzie się dławił. Czyżby sprzęt, ale ten jest "nieskończony" czy program, bo programista uznał że nie musi o nic dbać...
trueblue
28.02.2015, 12:02:08
Cytat(SmokAnalog @ 28.02.2015, 11:47:23 )

Zaskakuje mnie, że tak wielu z was ma tak zablokowaną wyobraźnię i jako punkt odniesienia traktuje teraźniejszość, czyli rok 2015. Nie potraficie dać się ponieść wyobraźni, a postęp traktujecie w kategoriach dokładania rdzeni. Z Takim nastawieniem, w latach 80-tych zostałbym wyśmiany, gdybym mówił o trójwymiarowych grach full hd, "bo przecież komputer musiałby być ogroooomny i by się spalił". No tak, Commodore 64 by się spalił.
https://www.youtube.com/watch?v=artEQkifGG0
SmokAnalog
28.02.2015, 12:04:14
!*! totalnie się nie zgadzam z ani jednym słowem

Problemem jest to, że traktujesz dzisiejszy sprzęt jak coś szybkiego, to jest blokada przed pójściem dalej. Skaczą po rdzeniach jak szalone - taaa...
Posio
28.02.2015, 12:05:22
Co do wydajności, niestety ale jestem trochę zwolennikiem teorii spiskowych i uważam, że procesory juz dawno mogły by być dużo szybsze, ale po co ? Przecież z tego jest hajs, i nikt się nie burzy ze jest mu za wolno. Kiedyś przyjdzie taki moment, że będzie popyt na coś dużo szybszego , ale wtedy też znajdzie się podaż. Historia pokazuje że człowiek tak na prawdę nie jest ograniczony niczym, oprócz własnych potrzeb. Co do np rozmiarów pamięci, w stosunku do mózgu dyski twarde itp potrafią przechować bardzo małą ilość danych. Moim zdaniem rozwiązaniem również jest poznanie jak informacje są przechowywane w mózgu, tyle, ze tego również nie wiemy. Póki co, jedyna opcja to tworzenie coraz większych i szybszych dysków czy pamięci. Ale być może, prawda jest taka, że problemem jest system cyfrowy. Prawda jest taka, że komputer jest próbą odwzorowania przez człowieka od podstaw w formie cyfrowej tego, nad czym natura pracowała miliardy lat.
@!*! Dobrze wiemy , że np taki PS czy inne wielkie profesjonalne programy nie są i nie będą nigdy przepisane od podstaw bo jest to nie opłacalne, to jest między innymi to o czym mówię między wierszami. Jest hajs, to człowiek nie będzie na siłę niczego ulepszal, tak właśnie branża softwareowa napędza hardwareowa. Proste jak budowa cepa , i w pełni się z Tobą zgadzam.
Cytat(SmokAnalog @ 28.02.2015, 12:04:14 )

Problemem jest to, że traktujesz dzisiejszy sprzęt jak coś szybkiego, to jest blokada przed pójściem dalej. Skaczą po rdzeniach jak szalone - taaa...
Nie traktuję sprzętu jak coś szybkiego, nigdy tak nie było, bo zawsze są ograniczenia i to Ty tego nie pojmujesz. Pokaż mi w historii świata rzecz która się nie skończyła, jest elastyczna, prócz nawiązań do wszechświata która jest teorią ;) może ograniczając się do technologii. Przez tysiące lat nikt by nie wpadł na to, aby wcielić Twoją wizję w życie? Nie daje Ci to do myślenia? ;)
SmokAnalog
28.02.2015, 12:14:55
Cytat(Posio @ 28.02.2015, 12:05:22 )

Historia pokazuje że człowiek tak na prawdę nie jest ograniczony niczym, oprócz własnych potrzeb.
Ja to zdanie traktuję jak frazes. Człowiek jest ograniczony wieloma rzeczami, sam sposób funkcjonowania mózgu to wielkie ograniczenie, nie mówiąc już o niedoskonałości zmysłów.
Z tym ograniczeniem przez rynek to oczywiście racja, ale blokadą są też - co sam powiedziałeś - ludzie. To, że "nie potrzebują więcej". Ludzie są z reguły mało wymagający i bardzo skażeni brakiem wyobraźni, co zresztą pokazują niektórzy w tym wątku. Jestem bardzo ciekaw jak potoczyłaby się ta dyskusja 20 lat temu. Jestem pewien, że niemal tak samo. "Nieee, przecież teraz są szybkie, nie potrzeba więcej".
Cytat(!*! @ 28.02.2015, 12:11:32 )

Nie traktuję sprzętu jak coś szybkiego, nigdy tak nie było, bo zawsze są ograniczenia i to Ty tego nie pojmujesz. Pokaż mi w historii świata rzecz która się nie skończyła, jest elastyczna, prócz nawiązań do wszechświata która jest teorią ;) może ograniczając się do technologii. Przez tysiące lat nikt by nie wpadł na to, aby wcielić Twoją wizję w życie? Nie daje Ci to do myślenia? ;)
Zaraz mi ręce opadną

Tak, przez tysiące lat nikt nie wpadł, żeby stworzyć Internet, czyli zgodnie z Twoim tokiem rozumowania, Internet jest niepotrzebny. Brawo!
Cytat(SmokAnalog @ 28.02.2015, 12:12:19 )

Jestem bardzo ciekaw jak potoczyłaby się ta dyskusja 20 lat temu. Jestem pewien, że niemal tak samo. "Nieee, przecież teraz są szybkie, nie potrzeba więcej".
I znowu mylisz wątki. Rozwój to jedno, a Ty chcesz w jego ramach stworzyć coś co będzie miało nieograniczone możliwości na potrzeby człowieka, a one same są nieograniczone i tu wpadasz w pętlę która wyklucza Twoją teorię.
Cytat(SmokAnalog @ 28.02.2015, 12:14:55 )

Zaraz mi ręce opadną :D Tak, przez tysiące lat nikt nie wpadł, żeby stworzyć Internet, czyli zgodnie z Twoim tokiem rozumowania, Internet jest niepotrzebny. Brawo!
To internet jest nieograniczony? A to ciekawe...
solificati
28.02.2015, 12:18:14
Cytat(SmokAnalog @ 28.02.2015, 00:59:55 )

Ktoś powie, że potrzeby będą rosły razem z wydajnością sprzętu. Zgadzam się, ale to nie jest równy wyścig. Jakość obrazu nie będzie szła do przodu w nieskończoność, bo ludzkie oko nie ma nieskończonej dokładności widzenia. Ilość danych nie będzie się zwiększała w nieskończoność, bo liczba ludzi na naszej planecie nie zdziesiątkuje się.
To nie jest równy wyścig. Potrzeby będą rosły szybciej. Zawsze tak było. To, że nie jesteś w stanie sobie dzisiaj wyobrazić potrzeb przyszłości niczego nie zmienia. Twórcy komputerów też nie potrafili kiedyś wyobrazić sobie GUI, "po co - na co - karty perforowane są wystarczające".
Dlatego komputery nie będą wystarczająco szybkie dopóki nie dojdziemy do singularity, a po tym momencie nie ma sensu niczego przewidywać i nad niczym się zastanawiać.
Cytat
!*! totalnie się nie zgadzam z ani jednym słowem biggrin.gif Problemem jest to, że traktujesz dzisiejszy sprzęt jak coś szybkiego, to jest blokada przed pójściem dalej. Skaczą po rdzeniach jak szalone - taaa...
Ja odnosze wrazenie ze Ty wszystkich wrzucasz do jednego worka traktujacych komputery inaczej niz Ty, !*! wyraznie Ci napisal o komputerze na USB80 z kosmiczna energia w srodku a Ty dalej stawiasz pod znakiem zapytania jego traktowanie dzisiejszego sprzetu.
Daj na forum 20 przykladow czynnosci w ktorych Ty bys wykorzystal te super szybkie komputery, a potem niech ktos Ci w jednym zdaniu odpisze ze juz takie maszyny sa, tylko Cie nie stac, czyli dyskusja sprowadza sie do tego ze jestesmy pro cebule i mozemy jechac na i7 x 8gb do konca zycia.
SmokAnalog
28.02.2015, 12:18:36
Potrzeby ludzkie nie są nieograniczone.
Posio
28.02.2015, 12:21:22
Pisząc, że człowiek jest ograniczony przez własne potrzeby miałem na myśli to, że na siłę nigdy nie szukamy nowych rozwiązań, kiedy mamy działające strare. Ale w momencie, gdy coś się dzieje, gdy czegoś zaczyna brakować, mniejszym lub większym kosztem, zawsze coś się wymyśla. Tak było i jest z jedzeniem, energią, i komputerami.
Cytat(SmokAnalog @ 28.02.2015, 12:18:36 )

Potrzeby ludzkie nie są nieograniczone.
To na co Ci komputer na gwiezdny pył? Siedziałbyś teraz w jaskini bez internetu, gdyby tak było... Oj kolego, mylisz się w zeznaniach.
No ale jeszcze je trzeba umiec okreslic w powaznej dyskusji, na mniemam powaznym forum.
SmokAnalog
28.02.2015, 12:23:47
Cytat(tzm @ 28.02.2015, 12:18:26 )

Ja odnosze wrazenie ze Ty wszystkich wrzucasz do jednego worka traktujacych komputery inaczej niz Ty, !*! wyraznie Ci napisal o komputerze na USB80 z kosmiczna energia w srodku a Ty dalej stawiasz pod znakiem zapytania jego traktowanie dzisiejszego sprzetu.
Daj na forum 20 przykladow czynnosci w ktorych Ty bys wykorzystal te super szybkie komputery, a potem niech ktos Ci w jednym zdaniu odpisze ze juz takie maszyny sa, tylko Cie nie stac, czyli dyskusja sprowadza sie do tego ze jestesmy pro cebule i mozemy jechac na i7 x 8gb do konca zycia.

Po pierwsze od początku tematu mówię, że chodzi o sprzęt dla przeciętnego człowieka, a nie o to "co jest". Po drugie gwarantuję Ci, że nawet najszybszy dzisiejszy sprzęt nie spełnia wymagań, o których piszę. Po trzecie, wykorzystywałbym je do tych samych czynności co dzisiaj, bo temat jest o ograniczeniu czynności wydajnością.
Cytat(!*! @ 28.02.2015, 12:21:32 )

To na co Ci komputer na gwiezdny pył? Siedziałbyś teraz w jaskini bez internetu, gdyby tak było... Oj kolego, mylisz się w zeznaniach.
Ręce opadły po raz drugi.
Posio
28.02.2015, 12:25:06
Btw. Człowiek posiada potrzebę poznania, a ta z kolei jest nieograniczona. Kwestia tego, że nie każdy człowiek jako jednostka, taka potrzebę posiada, jako ogół gatunku - tak.
Jeszcze wiele książek przed tobą
SmokAnalog
28.02.2015, 12:28:15
Nie rozumiem co ma piernik do wiatraka, Pusio.
Temat idzie w dziwną stronę. Ja zacząłem o spełnianiu naszych zwykłych, przyziemnych potrzeb bez ograniczenia ze strony sprzętu, a niektórzy wyskakują z jakimiś kosmicznymi potrzebami. Popadacie ze skrajności w skrajność. Albo ograniczacie się w wyobraźni do 2015, bo nie znamy nic nowszego, albo snujecie wizje rodem z science fiction. A ja mówię tylko i wyłącznie o tym czy i kiedy komputery przestaną stawiać opór

Komputeryzacja jest jeszcze niezwykle młoda i jak ktoś uznaje, że jest dzisiaj czymś zaawansowanym, to naprawdę brakuje mu wyobraźni.
Posio
28.02.2015, 12:31:31
Sam jesteś "Pusio" ^^
SmokAnalog
28.02.2015, 12:32:33
Pusio, Posio, jeden ch**
Cytat(SmokAnalog @ 28.02.2015, 12:28:15 )

Nie rozumiem co ma piernik do wiatraka, Pusio.
Temat idzie w dziwną stronę. Ja zacząłem o spełnianiu naszych zwykłych, przyziemnych potrzeb bez ograniczenia ze strony sprzętu, a niektórzy wyskakują z jakimiś kosmicznymi potrzebami. Popadacie ze skrajności w skrajność. Albo ograniczacie się w wyobraźni do 2015, bo nie znamy nic nowszego, albo snujecie wizje rodem z science fiction. A ja mówię tylko i wyłącznie o tym czy i kiedy komputery przestaną stawiać opór

Komputeryzacja jest jeszcze niezwykle młoda i jak ktoś uznaje, że jest dzisiaj czymś zaawansowanym, to naprawdę brakuje mu wyobraźni.
I tu trafiłeś w sendno z tym że nie rozumiesz

Chcesz sprzęt bez ograniczeń dla codziennych potrzeb, ale wykluczasz wizje o przyszłości pomimo że sam się do nich odwołujesz, więc w zasadzie to o co Ci chodzi.
SmokAnalog
28.02.2015, 12:37:59
Cytat(SmokAnalog @ 28.02.2015, 00:59:55 )

Wydajność zawsze będzie ograniczona, ale przestanie być zauważalnym problemem w momencie, kiedy sprzęt przestanie ograniczać potrzeby.
Cytat(!*! @ 28.02.2015, 12:35:10 )

I tu trafiłeś w sendno z tym że nie rozumiesz

Chcesz sprzęt bez ograniczeń
@up - i której części nie zrozumiałeś? Kilka osób podsumowało to już wcześniej.
Posio
28.02.2015, 12:55:16
@SmokAnal
"Co ma piernik do wiatraka", wypowiadasz się na tematy, o których nie masz pojęcia. Prawdopodobnie nawet nie opanowałeś dobrze podstaw z LO/Technikum. Potrzeby człowieka, nie kończą się na piramidzie Maslowa. Oto chodzi.
solificati
28.02.2015, 13:07:03
Cytat(SmokAnalog @ 28.02.2015, 12:18:36 )

Potrzeby ludzkie nie są nieograniczone.
Gdyż?
O$iek
28.02.2015, 13:18:25
Japko
SmokAnalog
28.02.2015, 13:33:06
Cytat(solificati @ 28.02.2015, 13:07:03 )

Gdyż?
Ponieważ jesteśmy tak skonstruowani, że odczuwamy przesyt. W sklepach mamy teraz pełno jedzenia, a mimo wszystko nie żremy całymi dniami.
Dyskusja nie jest o kosmicznych potrzebach, których i tak moim zdaniem nigdy nie będzie. Dyskusja jest o tym, że na dzień dzisiejszy komputery nie nadążają za człowiekiem. Dobry przykład to wspomniane przeze mnie renderowanie filmu, które trwa godzinami. To nie jest potrzeba z kosmosu ani jakieś szczególnie skomplikowane zadanie, a jednak jest skomplikowane z punktu widzenia wydajności dzisiejszego sprzętu. Nie mówiąc już o dławiących się systemach operacyjnych czy przeglądarkach internetowych. Przyzwyczajenie i akceptacja stanu obecnego zamyka oczy niektórym ludziom i to jest mechanizm, o którym też warto rozmawiać. Była komuna, większość się przyzwyczaiła i dzisiaj część starszego pokolenie uznaje ją za normę i tęskni za nią. Kiedyś zachwycano się pierwszymi telefonami komórkowymi. Internet kilkanaście lat temu był powolny, ale większość ludzi też traktowała to jako jego stała cechę - taki musi być. Czekanie było integralną częścią procesu korzystania z sieci i ci, którzy nie używali wyobraźni, nie zastanawiali się nad tym. Gdyby było tak jak część z Was tutaj pisze, to teoretycznie Internet nadal powinien tak wolno działać, bo przecież znacząco zwiększyła się ilość przesyłanych danych. To jest przykład tego nierównego wyścigu, o którym pisałem. W górę poszły zarówno potrzeby (ilość danych), jak i technologia (szybkość łącz), ale było to na tyle nieproporcjonalne, że mimo większej ilości danych, otrzymujemy odpowiedź znacznie szybciej. Moim zdaniem ta krzywa będzie się jeszcze bardziej uginać w stronę odczuwalnej szybkości, bo startowaliśmy z pułapu braku zaspokajania potrzeb dostępu do informacji przez Internet (z uwagi braku Internetu) i między tamtym, a dziś jest przepaść. Teraz już takiej przepaści w komputeryzacji nie będzie, bo nigdy nie będziemy znów startować od zera. Mam nadzieję, że teraz lepiej wyjaśniłem o co mi chodzi.
solificati
28.02.2015, 14:02:03
Pomyśl, że problem renderowania, który przytaczasz ciągle, nie istniał trzydzieści lat temu, gdy komputery były powszechne w miejscach pracy. To są rosnące potrzeby - mimo, że mieliśmy masę filmów, które mogliśmy "żreć" to teraz chcemy innych filmów. Zapotrzebowanie na technologię rosło, rośnie i będzie rosło. Jedyne założenie to takie, że komputery będą już związane z technologią i myślę, że jest to oczywiste założenie.
Po prostu brakuje Ci kontekstu i wyobraźni, żeby zaobserwować zmiany potrzeb i ich przyrost.
SmokAnalog
28.02.2015, 14:15:07
Raczej Tobie brakuje wyobraźni, żeby nie widzieć, że to nie jest równy przyrost i fundamenty epoki cyfrowej już są położone. 90% argumentów w tej dyskusji nic nie wnosi, łącznie z Twoim. No to przytoczmy jeszcze raz sprawę Internetu. Cofnijmy się w czasie o te kilkanaście lat. Tworzę temat, że Internet jest powolny i że kiedyś będzie szybszy. Spotkałbym się z odpowiedzią, że nie będzie, bo jestem na tyle głupi, że nie widzę rosnących potrzeb i będzie po prostu więcej danych do pobrania. Czy tak było z tymi potrzebami? Tak! Ale czy to się równało zatrzymaniu wydajności? Nie. Mam wrażenie, że Was przeraża sam pomysł na to, że sprzęt będzie kiedyś tworzony z zupełnie innych materiałów i koncepcja współczesnego komputera będzie przestarzała. Ciągle nawijacie o tych potrzebach, które niby z prędkością światła poszybują w górę. Nie pójdą szybciej niż postęp technologiczny.
Coz. Nie warto brnac w te dyspute.
peter13135
28.02.2015, 14:40:16
To ja się zapytam. Autorze tematu, jaki jest cel Twojego pytania ? Chcesz poznać opinie innych osób, czy nam coś udowodnić, a może się czegoś dowiedzieć ? Myślę, że jasne określenie tego celu mogło by ułatwić dyskusję.
Apropo potrzeb. To nie jest tak, że dzisiejszy sprzęt jest wystarczający do naszych potrzeb. To nasze potrzeby są ograniczane poprzez stan techniki. Podejrzewam, że duże serwerownie, które trzymają po 100 czy więcej maszyn, chętnie by je zamienili na jeden mały komputerek o tej samej wydajności.
Możemy sobie wytężać wyobraźnie i spekulować co będzie w przyszłości, tylko co nam to da ? W miarę dobrze możemy przewidzieć, kiedy będą 16 rdzeniowe kompy, czy w standardzie będzie 64b ramu. Ale co możemy wiedzieć o przyszłości komputerów kwantowych, lub całkiem innych ? Takich przewidywań było bardzo wiele w przeszłości. Były dość ciekawe, ale w dużej mierze nietrafione i z perspektywy czasu śmieszne.
Przykład:
http://charliethelibrarian.com/swiat-w-rok...edlug-ilustrow/ Dlatego uważam, że nic z tego tematu nie wyniknie konkretnego.
Cytat
Nie. Mam wrażenie, że Was przeraża sam pomysł na to, że sprzęt będzie kiedyś tworzony z zupełnie innych materiałów i koncepcja współczesnego komputera będzie przestarzała.
Obawiam się, że każdy z nas jest świadomy tego, że świat się zmienia i co jakiś czas powstają wynalazki mocno wpływające na życie ludzi. Także wśród komputerów. Natomiast każdego z nas przerasta trafne wyobrażenie sobie jak będzie wyglądała następna generacja komputerów (w sensie, tych kwantowych lub całkiem innych). Jak rozumiem, Ciebie nie interesuje przyszłość typu "komputer za 1000zł będzie miał 128 rdzeniowego proca i 8tb ram", tylko bardziej odległa - oparta na "innej architekturze" o której jeszcze nic nie wiemy, bo nie została zaprojektowana/wynaleziona.
SmokAnalog
28.02.2015, 14:47:11
Prawdę mówiąc moim głównym celem było zobaczyć ile osób ma pozamykane głowy i już wiem.
peter13135
28.02.2015, 14:59:30
W takim razie, myślę, że nasze skromne grono wypowiadające się w tym temacie cieszy się, że pomogliśmy Ci znaleźć odpowiedź na Twoje pytanie
destroyerr
28.02.2015, 15:07:43
Cytat
Ciągle nawijacie o tych potrzebach, które niby z prędkością światła poszybują w górę. Nie pójdą szybciej niż postęp technologiczny.
To jest bardzo śmiałe stwierdzenie. Zwłaszcza, że doświadczenie pokazuje co innego.
solificati
28.02.2015, 19:37:09
Cytat(SmokAnalog @ 28.02.2015, 14:47:11 )

Prawdę mówiąc moim głównym celem było zobaczyć ile osób ma pozamykane głowy i już wiem.
Przecież Ty masz zamkniętą głowę, nie widzisz rosnących potrzeb. Od czasy wymyślenia komputera nie zwiększyły się potrzeby w rodzaju "szybciej", pojawiły się nowe potrzeby.
Ja nie mówię o rosnącej potrzebie renderowania scen video, ja mówię o nowej potrzebie renderowania rzeczywistości a potem niewiadomo czego. Cały czas wynajdujemy nowe zadania zanim komputery są w stanie to realizować. Powtarzam, ty widzisz tylko zmiany ilościowe, ja mówię o nowych potrzebach. Nie szybszego internetu, ale czegoś zamiast internetu, nie szybszego renderowania filmów, ale nowych rozrywek do których potrzebne będą komputery.
Nie patrzysz na przeszłość z perspektywy przeszłości. Tobie się wydaje, że gołębie pocztowe to taki wolny internet, i internet powstał tylko dlatego, że gołębie szybciej nie latały, a ponieważ nikt nie będzie chciał szybciej wysyłać maili to nie ma nowych potrzeb.
sazian
28.02.2015, 21:45:07
dobra wracając do tematu:
kiedyś producenci procesorów odkryli że zmieszają grubość półprzewodników można w łatwy sposób zwiększyć taktowanie procesora jednocześnie zmniejszając zapotrzebowanie na prąd, a mniejsze złożycie prądu oznacza mniej ciepła które układ wytwarza.
Tak rozpoczął się wielki boom, co chwile pojawiały się coraz szybsze procesory z coraz cieńszymi warstwami.
Ale po pewnym czasie powstał problem, otóż obecnie zaczynamy się zbliżać do grubości atomu krzemu, a tego nie da się walić młotkiem żeby stał się cieńszy

do tego różnice w wydajności przy zmniejszeniu grubości są coraz mniejsze, a koszy coraz większe więc jest to coraz mniej opłacalne.
Zaczęto produkować procesory wielordzeniowe, ale tu już niestety nie daje tak spektakularnych efektów.
Dlatego może się wydawać że rozwój technologii spowolnił.
Kolejny problem to optymalizacja oprogramowania,
jakiś czas temu widziałem program księgowy pod DOS'a, był uruchomiony na komputerze którego parametry obecnie mogą się wydawać śmieszne - 32MB ramu ? obecnie przeglądarka z otwartym googlem potrzebuje więcej.
I wiecie co ? Działał on o wiele szybciej niż współczesna wersja tego samego programu pod win7 na którym było 4GB ramu i procek i3.
Problem jest w tym że programy muszą powstawać coraz szybciej i wydajniej, a optymalizacja schodzi na drugi plan.
Obecnie pisze się obiektowo ale tak właściwie to po co ? Przecież to jest nie wydajne, taki program jest wolniejszy i potrzebuje więcej zasobów, więc po co ? A no po to że tak jest szybciej i "łatwiej" dla programistów. I co z tego że program będzie potrzebował 100MB ramu zamiast 1 ?
Dobra ale do rzeczy,
komputery pewnie nigdy nie będą "wystarczająco szybkie" dlatego że wraz ze wzrostem wydajności sprzętu spada wydajność programów
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę
kliknij tutaj.