Artificial intelligence

Olivian Breda

Internet marketer
Sugar daddy
Sunt destul de mirat că pe forum nu e un loc cu discuții despre inteligență artificială, machine learning sau quantum computers, e posibil să afecteze viitorul masiv, dar nu prea se discută despre asta. Eu nu sunt în mare măsură să emit judecăți în domeniu, dar am găsit un grafic interesant la finalul acestui articol și m-am gândit să îl partajez (în grafic România stă cel mai rău din țările analizate):
Welcome the robots: bridging the European artificial intelligence gap:
A new study by the McKinsey Global Institute (MGI), the research arm of McKinsey & Company, has found that the continent’s “digital gap with the world’s leaders is now being compounded by an emerging gap in artificial intelligence.” It’s a game of catch-up, in other words, with technological leaders such as the US and China. “Europe needs more AI, different AI, and all of it more quickly,” the study states.

și asta:
Quantum computing, not AI, will define our future | TechCrunch:
It's the 21st century space race
 
Pe la mine pe la serviciu IA si ML sunt in lista de top buzzwords, adica se vorbeste mult si nu se face nimic. Eu personal am citit cate ceva, inca nu sunt deloc impresionat; poti sa dresezi un sistem sa iti recunoasca continutul unor poze cu un training initial, e impresionant daca ar merge bine, dar nu e. Google Picasa facea asa ceva, doar ca nu avea nici un fel de inteligenta adaptiva sa sa se prinda ca pustiul dintr-o poza si adolescentul dintr-o poza cu 10 ani mai tarziu (si zeci de poze intermediare) sunt una si aceeasi persoana. Cam acolo se rupe filmul in momentul de fata, exista potential de a avansa dar nu stiu daca chiar se intampla, cine o face si pentru ce o face (adica in ce domenii chiar e folosit).

Un coleg a lucrat cu o companie externa care avea un chatbot inteligent, am fost si eu implicat colateral ca i-am facut un endpoint la care sa ne trimita continutul discutiilor pentru analiza. Era atat de inteligenta toata treaba aia incat un analist care se juca un pic in Excel avea rezultate mai bune decat orice analiza a alora. Si teoretic solutia lor era atat de inteligenta incat stia si natural language processing, dar pana am iesit eu din proiect (acum cateva saptamani) nu facea nimic decat discutii pre-scripted, dupa peste 6 luni de lalaiala. M-a umplut de respect, m-am dus sa ma spal.

Pana la IA si ML e nevoie de niste chestii de baza, gen aplicatii Web care fac CRUD in 69 de miliarde de moduri similare si epidemia diareica de limbaje de programare, librarii si frameworks care apar din plictiseala sau irelevanta cronica a unora. Eforturile umanitatii se pierd inutil in ultima librarie de Javascript care are in dreapta ce avea aia veche in stanga si in dispute intre SSR si SPA, ca alea Windows vs Linus si AMD vs Intel sunt prea 2000-ish. Dupa atata onanism intelectual nu mai ramane energie pentru ceva cu adevarat inovator, oamenii sunt epuizati.
 
Hai că am câteva minute să scriu. :biggrin:

Subiectul constă în foarte puțină tehnică utilizabilă pe scară largă dar foarte mult hype, alimentat și de presa senzaționalistă și de foarte proasta înțelegere a oamenilor care știu mai multe despre AI din filmele SF decât din realitate. Se poate extinde expresia din începutul anilor '90 când se vorbea despre client/server computing, și care apoi s-a reaplicat la cloud computing, și acum la artificial intelligence: „[hype subject x] is like teenage sex - everyone talks about it, few actually do it and even fewer do it right, but everyone claims to be doing it”.

De fapt totul începe de la existența unei cantități imense de date, și dificultatea de a înțelege relațiile foarte complexe dintre ele în moduri pe care mintea umană nu le poate discerne și cataloga direct în relații de cauzalitate. De-aia mănâncă o pită toți ăia cu „s-ar putea să” și alte pompozități pentru relații aparente de corelație, însă dacă e să-i strângi cu ușa să demonstreze cauzalitatea, o dau la întors.

Vremurile când puteai înțelege că „dacă A și B sau C, atunci X” au cam trecut; acum poți avea de la zeci la mii de factori de intrare, cu sau fără legătură cu consecința, pe care nu poți aplica metoda științifică de testare experimentală pentru a determina impactul fiecărui factor când toți ceilalți sunt păstrați neschimbați. În unele domenii (life sciences de exemplu) e chiar imposibil să ții niște factori neschimbați pentru a testa efectele schimbării unuia, când toți factorii au interdependențe pe care nu le înțelegi încă, și modificarea unuia înseamnă automat modificarea altora.

Și aici intervine statistica la scară mare, mergând pe ideea e că, dacă ai un set foarte mare de date de intrare și consecințele lor, ai putea determina probabilistic care e influența fiecărui criteriu de intrare în rezultat, și ai putea calcula și marja de eroare. Iar unealta prin care poți face chestia asta este un soft prin care poți simula o „rețea neuronală” formată din „neuroni” care au mai multe intrări și o ieșire. Ieșirea unui neuron se conectează la intrările mai multor alți neuroni, și așa formează o rețea prin care se transmit impulsuri, de la stimulii dintr-o parte (datele tale de intrare) până la concluzie/consecință (ieșirea). Rețeaua asta nu face nimic corect la început, de-aia trebuie antrenată; prin asta, fiecare neuron învață ce ponderi statistice și praguri de sensibilitate să aloce fiecărui stimul, pentru a produce un semnal de ieșire. Pe ansamblu, rețeaua neuronală va învăța din setul de date de antrenament cum să proceseze un set de stimuli pentru a calcula un rezultat.

De exemplu, am avut o lucrare de cercetare științifică (lolol) în facultate, în care am antrenat o asemenea rețea neuronală în scopuri... imobiliare. Am luat o bază de date cu niște zeci de mii de anunțuri imobiliare cu câteva zeci de caracteristici (cartier, număr de camere, etaj, suprafață, confort, cu/fără balcon, garaj, termopane, centrală, interfon, gresie și faianță, etc.), și prețul de vânzare. Am antrenat cu ea rețeaua și din asta ne-au rezultat câteva posibilități de utilizare a rețelei antrenate:
  1. O metodă de calcul a valorii de piață a unui apartament, furnizând combinația tuturor acestor parametri și obținând o sumă; marja de eroare statistică era și ea calculată deja. Site-ul de anunțuri imobiliare de unde am obținut baza de date putea implementa chestia asta direct pe site, ca un calculator de preț pentru apartamente. :smile:
  2. Un „arbore de decizie” pentru componentele valorii unui apartament pe nivele ierarhice, pornind de la cel mai important factor și determinând și care factori au o relevanță în calcul mai mică decât eroarea statistică. De exemplu: primul factor, numărul de camere. Pentru 2 camere, suma e 14k€. Pentru 3 camere, 19k€. Pentru 4 camere, 19,5k€. Al doilea factor: cartierul. Cartierul ț, adaugă 13k€. Cartierul y, scade 1,5k€. Al treilea factor: centrala. Are centrală, adaugă 10k€; n-are, scade 2k€. Al patrulea factor: garajul. N-au relevanță: dacă are rolete sau nu, dacă are faianță sau nu, dacă are interfon sau nu. Din toate astea îți iese o sumă de valoare; dacă prețul cerut de vânzător e mai mare, recomandarea ar fi să nu cumperi.
  3. O informație interesantă pentru cine și-a făcut un business din cumpărat apartamente vechi ca să le renoveze și să le revândă: în ce merită să investească (centrală de apartament și termopane) și cât câștigă la preț la vânzare, și în ce nu merită investiția fiindcă nu influențează prețul (faianță, interfon).
Cifrele sunt scoase din burtă, dar ați prins ideea.

Cu cât setul de date de antrenament este mai bogat, cu atât mai bun devine modelul statistic obținut prin antrenarea rețelei neuronale. De exemplu, acu' 21 de ani, facultatea americană unde eram avea un parteneriat cu spitalul local specializat în detecția și tratamentul cancerului, prin care săptămânal făceau un data dump de la tomograf într-un cluster de 40 de workstation-uri Sun al facultății. De câțiva ani era în antrenament o rețea neuronală ce lua ca date de intrare imaginile de la tomograf și diagnosticul dat de medic - e sau nu e cancer, pentru a ajunge cu rețeaua neuronală la o eroare statistică cel puțin la fel de bună cu cea a medicilor, pentru ca să-i dai o radiografie și sistemul să-ți zică „e cancer incipient, eroarea e de 4%”.

N-am idee unde e proiectul acum, dar de câțiva ani se vorbea de posibilitatea de a agrega simptomele și informațiile medicale despre un pacient pentru a sugera medicului diagnostice probabile. Complexitatea e încă foarte ridicată pentru a face asta cu o marjă de eroare mică, DAR știu sigur că industria asigurărilor medicale folosește aceste date pentru a calcula factorul de risc și a decide cât să ceară fiecărui client să plătească lunar pentru ca să iasă pe profit când unii ajung în spitale sau cimitir.

Inteligența artificială nu e decât un pas înainte al acestor modele statistice. Sunt softuri (comerciale) care vin deja cu diverse chestii antrenate și tot ce trebuie să faci e să-i dai datele de intrare pentru ca să-ți iasă anumite rezultate. Dar e în interesul producătorilor să îți folosească datele pentru a alimenta în continuare antrenamentul rețelelor neuronale și a îmbunătăți continuu marja de eroare. De-aia Google e foarte fericit să ofere free photo storage ca să aibă material cu care să facă face recognition pe pozele oamenilor. De-aia Amazon înregistrează voice snippets ca să-și antreneze voice recognition la Alexa, și le leagă de tracking info și detalii financiare pentru ca să-și antreneze precizia cu care identifică nevoile tale și să-ți propună să cumperi chestii chiar înainte să-ți dai seama conștient că vrei sau îți trebuie ceva. Există chat bots pentru first level user interface, fie text pe vreun site, fie vocal în robot telefonic. Vodafone și ING au așa ceva de câțiva ani. Companiile de electricitate americane bagă pe gâtul consumatorilor contoare electrice care fac data logging pentru consum pentru a putea genera la scară națională pattern-uri cu care să echilibreze consumul cu producția/achiziția și prețul.

Dar inteligența artificială nu este decât o denumire pompoasă pentru un algoritm statistic foarte, foarte complex, și a cărei rată de eroare depinde de cât de multe date de antrenament poate să obțină pentru antrenament. Nu poate face singur inferențe și generalizări, nu poate să-și asume riscuri și să ia inițiativa să testeze chestii „what if”, e pur și simplu un model statistic determinist. Poate genera cunoștințe noi și descoperi relații de corelație/cauzalitate în date pe care mintea umană nu le poate procesa, însă doar dacă acele date există și în cantități atât de mari încât marja statistică să fie mică. Sau dacă datele sunt corecte/sanitizate. Au făcut unii un experiment antrenând un AI cu texte de pe reddit și 4chan și, guess what, a ieșit un chat bot depresiv și suicidal și care insulta în stânga și dreapta. Oopsies. :biggrin: Garbage in, garbage out. Toată inteligența asta artificială n-are filtru propriu și lucrează exclusiv cu materialul clientului.
 
Last edited:
Pe mine nu mă duce capul cum de-au ajuns machine learning și AI să fie menționate în aceeași propoziție. Este ca și cum aș pune egal între modalitatea de a face ceva și acel ceva.

Poate machine learning va duce la îmbogățirea/ameliorarea/îmbunătățirea unui AI, dar nu îl va genera din neant. Teoria singularității este interesantă, dar să-ți imaginezi că AI va rezulta din machine learning per-se înseamnă să crezi cu adevărat că un vârtej de aer intră într-o curte cu fier vechi și asamblează un Ferrari nou nouț.

Eu n-am timp să scriu :biggrin:
 
  • Like
Reactions: LNT
Pe mine nu mă duce capul cum de-au ajuns machine learning și AI să fie menționate în aceeași propoziție. Este ca și cum aș pune egal între modalitatea de a face ceva și acel ceva.
Propoziția era asta: "Sunt destul de mirat că pe forum nu e un loc cu discuții despre inteligență artificială, machine learning sau quantum computers", topicul de față era în special despre AI, dar am remarcat că nu se discută aproape nimic despre aceste trei domenii, deși e posibil ca unul / toate să aibă un impact asupra IT-ului în anii care vin.
Mie nu mi se pare că am pus egal, dar opiniile sunt diverse. :smile:

Uite un citat, deși scos din context e irelevant:
"We’re looking to bring together expertise from AI & Robotics, Deep Learning, Ethics, Machine Learning and all Applied AI."

Pe mine mă super entuziasmează unele lucruri precum simularea unor jocuri (go, șah, jocuri de strategie), și estimarea mea, din exterior, e că tehnologiile astea (nu știu care, le numesc "astea") vor avea un impact major.
 
Last edited:
cum de-au ajuns machine learning și AI să fie menționate în aceeași propoziție


You see, you can get AI without using machine learning, but this would require building millions of lines of codes with complex rules and decision-trees.

So instead of hard coding software routines with specific instructions to accomplish a particular task, machine learning is a way of “training” an algorithm so that it can learnhow. “Training” involves feeding huge amounts of data to the algorithm and allowing the algorithm to adjust itself and improve.

Deci nu înțeleg cum vrei să vorbești despre AI dacă n-ai ML ca building block.
 
Putem pune in propozitia aia si blockchain, big data, chatbots, am uitat vreu buzzword din ultimii 2 ani? Serverless e deja prea vechi, fumat, iar in memory database are aplicabilitate practica prea realista ca sa le pui la gramada.
 
  • Love
Reactions: Neo



Deci nu înțeleg cum vrei să vorbești despre AI dacă n-ai ML ca building block.
Problema cu ML imho este că funcționează, dar nu știe cum funcționează precis. Adică nu se știe prea precis de ce se obțin anumite rezultate. Aia cu pui bun iese bun, pui gunoi iese trash - foarte simplificat, adevărat, dar incomplet. Nu știm de ce boții de la Google au ales să-și inventeze ei un mod de criptare a conversațiilor.

De aceea, ce facem noi momentan este să punem chestii la un loc și vedem ce iese. Do you want Skynet? Cuz that's how you get Skynet :biggrin:
 
Corect, dar alternativa de a învăța sistemul să facă ceva e prin programare algoritmică exhaustivă și rigidă a tuturor posibilităților. Așa s-au scris până acum programele, și e clar pentru toată lumea ce treabă bună a ieșit chiar și pentru scenarii simple. Nu e o activitate omenesc scalabilă, iar să faci o mașină să scrie cod fiindcă doar așa te simți mai bine când dormi noaptea, deși nici auditarea codului nu e mai simplă decât înțelegerea rețelei neuronale artificiale (sau a rețelei neuronale din creierele noastre for that matter), e o idee stupidă.

Dar o soluție nu o exclude pe cealaltă. Poți avea ML și rețele neuronale, urmate de un safety check programat explicit, în genul directivelor ce nu pot fi încălcate. Sau 3 sisteme ce calculează separat un rezultat și un guvernator care oprește execuția dacă sunt rezultate diferite - gen Minority Report sau, mai puțin spectaculos, fiecare computer de bord din misiunile spațiale ale NASA care de fapt e mai multe paralele și fac chestia asta fiindcă uneori tranzistorii din memoria unuia sunt corupți de radiația cosmică.
 
LLM-urile astea din cate vad sunt pretty useful la cateva chestii, impressive la alte cateva si proaste spre foarte proaste la altele. Dar e atat de mult hype si bullshit in jurul lor incat e greu sa-ti dai seama pana la urma daca vor avea un impact major sau vor lua calea crypto-ului. Un bing search mai destept si generat mailuri nervoase spre unii care nu ti-or trimis pachetul la timp e util dar nu ground-breaking. :smile: Faptul ca sunt predispuse la halucinatii si inventat chestii si in acelasi timp IBM zice ca va inlocui 30% din backoffice employees cu AI e destul de hilar.

Le-am incercat si eu putin pentru generat scripturi si cod simplu pana au taiat astia accesul pe laptop-ul de servici si apoi nu m-am mai obosit. :smile: Sunt OK, dar pana sa faca corect chestii peste nivel elementar mai este, deci nu ma tem ca o sa-mi ia jobul cum se lamentau unii. Plus ca sunt domenii unde nu va accepta nimeni chestii generate de AI, sau cel putin nu intr-un timeline relevant pentru mine. Multe banci inca au core-ul scris in COBOL de acum 40 de ani, as vrea sa vad cand adopta cod scris de chat gpt. :biggrin:
 
pana au taiat astia accesul pe laptop-ul de servici
Absolut patetic, asta ca să nu scrieți cod de producție cu AI-ul? Atitudinea ta pare a fi "'t'was shit anyway m8" dar clar ăia au considerat că există pericolul ca cineva să facă asta.

Cât despre "acceptat chestii generate de AI", mă îndoiesc că în 1-2 ani își va mai da seama cineva dacă acel cod este scris de AI sau de tine. Probabil l-ar prefera pe cel scris de acel AI pentru că tu probabil ai dat rasol la documentație :biggrin:



Edit: ca să parafrazez un personaj preferat dintr-un film favorit, "viitorul este împreună". 'geaba banează ăștia AI, să încerci să elimini progresul rezultă în eșec. Iar cei ce nu vor îmbrățișa progresul vor avea aceeași soartă ca și dinozaurii.

Edit2: ChatGPT nu este AI. Este un chatbot care are în spate rețele neuronale și machine learning din datasets absolut gigantice. Dar cam atât. Și este confidently incorrect despre o groază de chestii, dar dacă ești de meserie pe subiect te poate ajuta imens să-ți faci anumite chestii.
 
Ce facem noi la munca foloseeste atat ML cat si AI. Avem de unde colecta date, si scopul final este sa minimizam interventia umana si cand in final este necesara sa poate fi pregatite materiale si estimate ceva ore de munca.
La noi functioneaza foarte bine, scopul este atins, destui oameni concediati.
Dar sa nu uitam, e un corner case foarte specific, si pentru asta sunt dedicate niste resurse uriase (ma refer la hardware, software, munca umana).
 
Au tăiat accesul ca să nu îi dai tu ca input cod sau date de-ale firmei, pentru ca nimeni nu știe ce se întâmplă cu ele și unde ajung... foarte probabil ca toate prompturile sa fie salvate undeva.
 
Back
Top