Jon McLoone joacă un rol central în definirea strategiei tehnice de afaceri a companiei Wolfram și conduce echipa de soluții de consultanță.
Cu o experiență de peste 25 de ani în utilizarea tehnologiilor Wolfram, Jon a contribuit la direcționarea dezvoltării de software, proiectarea de sisteme, marketingul tehnic, politica corporativă, strategiile de afaceri și multe altele.
Adevărul și minciuna în era Inteligenței Artificiale
Într-o prezentare la Techsylvania, una dintre cele mai mari conferințe de tehnologie și business din Europa de Est care are loc la Cluj-Napoca, Jon McLoone a adus în prim-plan una dintre cele mai sensibile și relevante teme ale epocii digitale: relația dintre adevăr, bias și minciună în modelele de limbaj de mari dimensiuni (LLM), precum ChatGPT.
„Modelele nu înțeleg nimic”
„Aceste modele nu înțeleg cu adevărat nimic”, a declarat McLoone. Potrivit lui, modelele de limbaj nu funcționează pe baza unei înțelegeri autentice a informației, ci doar prezic următorul cuvânt probabil, în funcție de contextul oferit. Deși pot părea inteligente, ele doar simulează înțelegerea, fără să aibă o cunoaștere reală sau raționamente profunde.
Un exemplu clar: atunci când i-a fost cerut unui model să calculeze media unei serii de numere, acesta a oferit o poveste coerentă despre cum se face media, însă rezultatul final era greșit. „Nu face matematică, spune doar o poveste despre matematică”, a explicat el.
McLoone a subliniat că modelele de limbaj sunt antrenate pe date preluate din lumea reală – o lume plină de prejudecăți. „Chiar și concepte precum ‘ce este mâncarea’ sunt vagi și încărcate de bias cultural. Modelele preiau aceste biasuri și le perpetuează. Într-un experiment, când a cerut unui model să sugereze numele unui CEO, majoritatea erau bărbați. În schimb, la cererea de nume pentru o asistentă medicală, majoritatea erau femei. „Aceste tipare reflectă realitatea, dar nu înseamnă că trebuie să le considerăm adevăruri absolute”, a punctat el.

Restricții și „cenzură” intenționată
Un alt aspect important semnalat a fost influența dezvoltatorilor asupra comportamentului modelelor. „Aceste modele nu doar învață din date – ele vin deja cu reguli încorporate, impuse de dezvoltatori”. De exemplu, dacă întrebi cum se fabrică o bombă, modelul refuză să răspundă – nu pentru că a învățat acest lucru din date, ci pentru că i s-a impus să evite astfel de subiecte. „Este o decizie etică din partea echipei de dezvoltare, dar utilizatorul trebuie să știe că nu tot ceea ce pare o decizie a modelului vine din date”.
McLoone a avertizat și asupra pericolului contaminării datelor. În trecut, internetul era dominat de texte scrise de oameni, dar acum este tot mai plin de conținut generat de modele AI. A oferit exemplul expresiei „vegetative electrol microscopy”, o eroare de traducere care a apărut dintr-un glitch și s-a răspândit în peste 20 de lucrări științifice. „O greșeală banală a ajuns să fie validată de sistem, doar pentru că a fost preluată și reciclată de suficiente ori”.
Modelele care par să lucreze bine pe sarcini mici pot da greș complet în fața unor probleme mai complicate. „S-ar putea să fim într-un punct de echilibru imposibil, în care nu putem îmbunătăți și acuratețea, și complexitatea în același timp”.
Pentru ce sunt totuși utile modelele de limbaj?
În ciuda criticilor, McLoone a recunoscut și meritele acestor modele. „Sunt extrem de bune la interacțiunea în limbaj natural. Putem vorbi cu un calculator în limbaj uman și el poate răspunde contextualizat. Asta e o revoluție”. De asemenea, modelele sunt excelente în procesarea textelor nestructurate – cum ar fi extragerea automată de informații din mii de documente PDF. „Ceva ce înainte dura săptămâni, acum se face în câteva minute”.
În plus, în domenii unde „corectitudinea” nu este bine definită – cum ar fi clasificarea emailurilor sau generarea de idei – modelele oferă un avantaj major, chiar dacă greșesc ocazional. „Dacă 10–20% dintre clasificări sunt greșite, tot e mai bine decât să facă un om aceeași sarcină de 100 de ori pe zi”.
Concluzie: Adevărul, dar cu sursă
„ChatGPT este ca acel tip de la bar care vorbește tare și pare să știe totul – dar dacă cineva deștept îi șoptește adevărul la ureche, va spune exact acel adevăr, ca și cum ar fi ideea lui”, a conchis Jon McLoone
În cele din urmă, McLoone ne amintește că aceste instrumente trebuie privite cu luciditate: sunt utile, chiar impresionante, dar nu sunt infailibile.
Techsylvania, la Cluj-Napoca
Techsylvania este una dintre cele mai mari conferințe de tehnologie și business din Europa de Est. Se desfășoară anual în Cluj-Napoca și reunește profesioniști, antreprenori, investitori și entuziaști din industria tehnologică.
Ediția de anul acesta are loc între 25 – 26 iunie.
Lasă un Răspuns
Vezi comentariile