Da li koristite ChatGpt?

Da li koristite ChatGpt? Gde ste naučili kako se koristi ChatGPT?

Ovde su dva teksta zašto bi trebalo to da naučimo. Na kraju teksta je link za učenje.

Studija otkriva: 65% ljudi koristi AI svakodnevno, ali većina ne zna za rizike

Nova studija pokazuje da se alati poput ChatGPT-a i Gemini-ja uvode u svakodnevni život i poslovanje neverovatnom brzinom, dok se istovremeno zanemaruje edukacija korisnika o rizicima koje nose.

Američka neprofitna organizacija Nacionalna alijansa za sajber bezbednost (NCA) u saradnji sa kompanijom CybNet sprovela je istraživanje među više od 6.500 ispitanika u sedam zemalja.

Rezultati otkrivaju ozbiljan jaz između popularnosti veštačke inteligencije i svesti o njenim bezbednosnim implikacijama.

Rezultati pokazuju da 65% ispitanika svakodnevno koristi alate veštačke inteligencije, što je rast od 21% u odnosu na prošlu godinu. Međutim, 58% korisnika izjavilo je da nikada nije prošlo formalnu obuku o tome kako bezbedno koristiti ove tehnologije. Drugim rečima, većina ljudi koristi moćne AI sisteme bez razumevanja potencijalnih rizika.

Ljudi brže prihvataju veštačku inteligenciju u svom ličnom i profesionalnom životu nego što se edukuju o njenim rizicima“, rekla je Liza Plagemijer, izvršna direktorka NCA-a.

Zabrinjavajuće je da je 43% ispitanika priznalo da u razgovorima sa AI alatima deli osetljive informacije, uključujući finansijske i podatke o klijentima.

Izveštaj NCA-CybNet-a potvrđuje ono što stručnjaci već neko vreme upozoravaju: AI agenti mogu biti ozbiljan bezbednosni problem. Dizajnirani da automatizuju složene zadatke i povećaju efikasnost, oni često zahtevaju pristup internim sistemima i poverljivim dokumentima. Takav pristup značajno povećava rizik od curenja podataka ili čak nenamernih grešaka koje mogu imati katastrofalne posledice, poput slučajnog brisanja čitavih baza podataka.

Ranije ove godine, istraživanje kompanije SailPoint pokazalo je da 96% IT stručnjaka smatra agente veštačke inteligencije potencijalnim bezbednosnim rizicima, ali 84% je reklo da su njihove kompanije već počele da ih interno primenjuju.

Čak i konvencionalni četbotovi nose rizike. Pored toga što proizvode netačne informacije, mnogi takođe čuvaju interakcije korisnika kao podatke za obuku. Slučaj iz 2023. godine sa kompanijom Samsung postao je svojevrsno upozorenje: inženjeri su nenamerno podelili poverljive podatke kroz ChatGPT, zbog čega je kompanija zabranila korišćenje ovog alata na radnom mestu.

Veštačka inteligencija sve više postaje deo svakodnevnih aplikacija i servisa. Microsoft je, na primer, dodao funkcije veštačke inteligencije u Word, Excel i PowerPoint, pa mnogi korisnici i ne primećuju da rade sa veštačkom inteligencijom. To znači da se AI usvaja i “na mala vrata”, bez jasnog razumevanja posledica.

Iako AI donosi ogromne prednosti u produktivnosti i automatizaciji, nedostatak obuke i smernica može dovesti do ozbiljnih propusta u bezbednosti i privatnosti. Oslanjanje na tehnologiju bez adekvatne zaštite i svesti o rizicima znači da i pojedinci i organizacije mogu postati laka meta sajber kriminalaca.

Više veštačke inteligencije predstavlja rizike, uključujući gubitak posla, dipfejkove, pristrasne algoritme, kršenje privatnosti, automatizaciju oružja i društvenu manipulaciju.

 

Rizici veštačke inteligencije (AI) na koje treba obratiti pažnju

 

Veštačka inteligencija (AI) i opšta veštačka inteligencija (Gen AI) više nisu stvar naučne fantastike, već svakodnevna stvarnost. Rizici i implikacije njene integracije u naše živote postali su ključna tema razgovora.

Transformativna moć AI je neosporna, ali ona sa sobom nosi Pandorinu kutiju rizika i izazova koji bi mogli da preoblikuju tkivo društva na načine koje tek počinjemo da razumemo.

Dok stojimo na ovoj tehnološkoj raskrsnici, snalaženje u ovim rizicima sa mešavinom opreza, uvida i predviđanja je imperativ.

Potrebno je da angažujemo hor glasova iz različitih disciplina kako bismo razvili odgovore na društvene predrasude i etičke dileme koje predstavljaju veštačka inteligencija i autonomno donošenje odluka.

Ovaj članak se bavi deset ključnih oblasti u kojima značajni rizici umanjuju obećanje AI. Pridružite mi se u istraživanju nijansiranog pejzaža potencijala i zamki AI, gde će naši izbori glasno odjekivati u budućnosti.

  1. Rizici od pristrasnosti i diskriminacije Sistemi veštačke inteligencije inherentno odražavaju podatke na kojima se obučavaju. Veštačka inteligencija može nenamerno širiti ili pojačavati društvene predrasude ako ti podaci sadrže pristrasnosti. Ovo je posebno zabrinjavajuće u oblastima kao što su regrutovanje, kreditiranje i krivično pravosuđe, gde pristrasna veštačka inteligencija može dovesti do nepravednih ili diskriminatornih ishoda. Da bi se ublažio ovaj rizik, od vitalnog je značaja osigurati raznovrsne, nepristrasne podatke o obuci i kontinuirano praćenje rezultata veštačke inteligencije radi otkrivanja pristrasnosti.
  2. Izazovi transparentnosti Duboko učenje i druge tehnologije veštačke inteligencije često funkcionišu kao „crne kutije“, sa procesima donošenja odluka koje nije lako interpretirati. Ova potreba za većom transparentnošću je problematična u kritičnim oblastima kao što su zdravstvena zaštita i autonomna vožnja, gde je razumevanje osnove odluka veštačke inteligencije neophodno za poverenje i pouzdanost. Razvoj objašnjivijih modela veštačke inteligencije i negovanje kulture transparentnosti u dizajnu i primeni veštačke inteligencije ključni su koraci u rešavanju ovog izazova.
  3. Poremećaj radne snage Brzi napredak veštačke inteligencije i automatizacije ugrožava sigurnost posla, posebno u ulogama usmerenim na rutinske zadatke. Ova tehnološka promena zahteva preispitivanje strategija radne snage, sa naglaskom na prekvalifikaciji i unapređenju veštačke inteligencije. Organizacije moraju da predvide ove promene i da se pripreme za budućnost u kojoj je saradnja između čoveka i veštačke inteligencije norma.
  4.  Ranjivosti u sajber bezbednosti Sistemi veštačke inteligencije, kao i svaka tehnološka infrastruktura, podložni su sajber napadima. Ove ranjivosti mogu se iskoristiti za manipulaciju ponašanjem veštačke inteligencije, krađu osetljivih podataka ili ometanje rada. Obezbeđivanje robusnih protokola za sajber bezbednost i razumevanje jedinstvenih bezbednosnih zahteva sistema veštačke inteligencije ključni su za zaštitu od ovih rizika.
  5.  Etičke složenosti Primene veštačke inteligencije, posebno u oblastima koje utiču na ljudsku bezbednost (kao što su autonomna vozila ili medicinska dijagnostika), predstavljaju značajne etičke dileme. Ovi scenariji zahtevaju pažljivo razmatranje i razvoj etičkih okvira i smernica za upravljanje donošenjem odluka u vezi sa veštačkom inteligencijom.

Autor Kieran Gilmurray

Scroll to Top