Da, și mie mi se pare la fel de plictisitor, chiar dacă o mare parte din intervalul de care zici nu prea aveam acces direct la așa ceva. Încă mai am pe la ai mei colecția
Byte România (din păcate nu arată prea bine acolo). Între timp am ajuns să lucrez cu persoane despre care (pe care le) citeam pe-atunci, să am prin casă mai multe laptop-uri decât desktop-uri, iar telefonul să aibă frecvență dublă față de primul PC pe care mi l-am permis.
Citeam acum câteva zile despre schimbările din Silicon Valley, acolo unde se întâmplă multe. Dacă acum 20 de ani toată lumea "rezolva probleme", adică inventa în principal hardware pentru a rezolva probleme computaționale, acum toată lumea de-acolo face site-uri cu care să ia banii de la fraieri, direct sau prin publicitate. Și cam atât. Între timp fabricile de hardware s-au mutat în China, și tot acolo învață lumea cum se face hardware (vezi tonele de clone chinezești la diverse device-uri; după ce ai făcut 10 clone începi să înveți cum se face hardware-ul serios). În rest, dacă încerci să desfaci un device cumpărat de tine să le arăți altora cum pot să-l folosească, te poți trezi
dat în judecată de producător.
Perioada de glorie a Xerox PARC (laser printers, Ethernet, solid state lasers, optical storage, fibre optice, Unicode), se termină prin 2002. De-atunci fac consultanță, că ies bani mai mulți.
Dacă vroiai să faci bani din IT acum 30 de ani, făceai hardware. Pentru că era loc de cercetare, iar dacă făceai software nu prea avea cine să-l folosească. Odată ce hardware-ul a devenit comun e greu să te impui. Până acum ceva timp era mult loc de mișcare, atât din punct de vedere tehnic cât și din punct de vedere al pieței. Pe vremea S3 Virge și 3DFX existau 6-7 producători de plăci grafice pe piață. Fiecare cu chip-ul lui, incompatibile unele cu altele, da' fiecare făcea ceva. Acum există probabil 30 de integratori de plăci grafice, care vând chip-uri de la 2 producători extrem de puternici, care se luptă undeva în ceruri și n-ai cum să ajungi la ei. Nici măcar Intel nu a reușit până acum să intre între ei, chiar dacă vrea de mult timp.
Tot ce se face acum e multiplicarea chestiilor existente. Avem GPU cu 1000 de cores? Data viitoare mai punem 200, ca să fie mai bun. Avem procesoare ieftine și care consumă puțin? Punem 100 într-un server, vedem noi dacă găsim soft care să ruleze pe el, da' poate ne vede cineva și ne cumpără, un pas mai aproape de FU money. Mai sunt unii entuziaști cu 3D printers, mai sunt tot felul de proiecte interesante, dar nu prea apucă să ajungă undeva, pentru că nu pot concura cu big boys. În comunicații wireless se mai mișcă puțin, dar și acolo e complicat pentru că s-au cam dus frecvențele interesante, și e complicat de intrat pe piață cu un astfel de produs.
Neo, progresul înseamnă viteză vizibilă (boot Windows în 5 secunde), nu faptul că
în anumite situații poți folosi mai mult de un core. În afară de commodity SSD (care e o idee al naibii de veche, dar abia acum a devenit accesibilă) nu s-a mai întâmplat absolut nimic care să ajute în vreun fel dacă nu ai o problemă foarte specifică (ex: number crunching sau jocuri).
Și în '95 se vorbea despre quantum computing, stadiul e identic cu cel de-atunci - jucărie de cercetare pentru o mână de oameni.
Nu limbajul în care scrii e problema. Atât Java cât și .net sunt
foarte aproape de performanța unui cod nativ, știu foarte bine să umple un multicore, problema e că trebuie să faci programul așa cum trebuie și trebuie ca și problema să se preteze la multiprocessing. Iar eu lucrez cu OpenCL în Java; dacă ai o problemă care se pretează, GPU-ul o rezolvă de 30 de ori mai rapid. Dacă ai o problemă care nu se pretează, calculezi mai repede de mână decât să scrii codul pe care să-l înțeleagă GPU-ul.