ChatGPT – aplikacioni “AI generator” që mund të përgjigjet në pyetje të vështira, të shkruajë kod kompjuterik, të mësojë algjebër dhe të përfshihet në bisedë frikshëm ngjashëm me bisedën e një qenieje njerëzore – ka aktivizuar makinën hiperbolike në Silicon Valley.
Sam Altman, drejtor i përgjithshëm i OpenAI, start-up-i që projektonte ChatGPT me financimin e Microsoft, i tha një intervistuesi në televizion, “Kjo do të jetë teknologjia më e madhe që njerëzimi ka zhvilluar deri më tani.”
Le të qartësojmë situatën.
Së pari, ChatGPT dhe sistemet e tjera të AI nuk përmbajnë, në vetvete, një kërcënim për ekzistencën e njerëzimit. Por, kjo teknologji krijon rreziqe të rëndësishme të menjëherëshme. Këto rreziqe përfshijnë lehtësimin e dezinformimit politik dhe sulmeve kibernetike, amplifikimin e përparakësh dhe përparakëshesh të paragjykimeve racore dhe gjinore, shkeljen e privatësisë së individëve dhe përhapjen e mashtrimeve në internet.
Një raport i ri i publikuar nga Qendra për Biznesin dhe të Drejtat e Njeriut në Shkollën e Biznesit Stern të Universitetit të New York-ut identifikon një sërë rreziqesh shoqërore:
1.Teknologjia e re do të lehtësojë prodhimin e dezinformimit dhe do ta bëjë atë më bindës.
2.Sulmet kibernetike kundër bankave, ndërmarrjeve energjetike dhe agjencive qeveritare do të ndihmohen nga sistemet AI që mund të prodhojnë kod malware në përgjigje të udhëzimeve të thjeshta tekstuale.
3,Mashtrimet gjithashtu do të përhapen kur kriminelët mësojnë të përdorin mjetet që lejojnë përdoruesit më pak të përvojshëm të personalizojnë mashtrimet për viktimat individuale.
4.Shkeljet e privatësisë do të ndodhin sepse të dhënat e mëdha të internetit të përdorura për të trajnuar AI janë të dhëna personale që personat e gabuar mund të përpiqen t’i nxjerrin nga aplikacionet AI.
5.Fjalët e urrejtjes që ekzistojnë në internet kanë të ngjarë të hyjnë në përgjigjet që ofrojnë sistemet AI, duke çuar në viktimizimin e grupeve të margjinalizuara.
6.Sistemet AI gjenerator kanë tendencë të gënjehen ose të prodhojnë fakte të rreme, çka krijon rreziqe nëse përdoruesit kërkojnë këshilla në tema si diagnoza dhe trajtimi mjekësor.
Për të adresuar këto rreziqe, kompanitë teknologjike mund të ndërmarrin një varg hapat, duke përfshirë:
1.Pa ekspozuar kodin bazë ndaj rivalëve të biznesit ose individëve të gabuar, kompanitë duhet të publikojnë burimet e tyre të të dhënave, hapat specifikë që ndërmarrin për të zvogëluar përparakësitë dhe shkeljet e privatësisë dhe testet që kryejnë për të minimizuar hallunikacionin dhe përmbajtjen e dëmshme.
2.Sistemet AI gjenerator nuk duhet të lansohen deri sa të provohet se janë të sigurta dhe efektive për përdorimin e parashikuar. Monitorimi duhet të vazhdojë edhe pas lansimit, me mundësinë për të hiqur modele nga tregu nëse shfaqen rreziqe të pakësuara të mëdha.
3.Për të zvogëluar konfuzionin dhe mashtrimin, dizajnerët e AI gjenerator duhet të gjejnë mënyra për të markuar ose ndryshe identifikuar përmbajtjen e prodhuar nga AI. Në të njëjtën kohë, ata dhe të tjerët duhet të përmirësojnë mjetet që mund të përdoren për të zbuluar materialet e krijuara nga AI.
4.Për habi, dizajnerët e AI shpesh nuk e kuptojnë pse krijimet e tyre veprojnë ashtu siç bëjnë. Ata duhet të intensifikojnë përpjekjet aktuale për të zgjidhur këtë problem të interpretueshmërisë si pjesë e përpjekjes më të madhe për të bërë modelet të sigurta./The Hill