ადვოკატი, რომელიც AI ფსიქოზის საქმეებზე მუშაობს, მასობრივი მსხვერპლის რისკებზე გვაფრთხილებს

გასულ თვეში, კანადაში, Tumbler Ridge-ის სკოლაში მომხდარ სროლამდე, სასამართლო მასალების თანახმად, 18 წლის ჯესი ვან რუტსელარი ChatGPT-ს თავისი იზოლაციის გრძნობებსა და ძალადობისკენ მზარდ მიდრეკილებაზე ესაუბრებოდა. ბრალდების მიხედვით, ჩატბოტმა ვან რუტსელარის გრძნობები ვალიდურად ცნო და შემდეგ თავდასხმის დაგეგმვაში დაეხმარა, ურჩია რა იარაღი გამოეყენებინა და სხვა მასობრივი მსხვერპლით დასრულებული მოვლენების პრეცედენტები გაუზიარა. მან მოკლა დედა, 11 წლის ძმა, ხუთი სტუდენტი და განათლების ასისტენტი, სანამ საკუთარ თავს გამოასალმებდა სიცოცხლეს. გასული წლის ოქტომბერში 36 წლის ჯონათან გავალასის თვითმკვლელობამდე, ის ახლოს იყო მასობრივი თავდასხმის განხორციელებასთან. კვირების განმავლობაში, Google-ის Gemini-მ სავარაუდოდ დაარწმუნა გავალასი, რომ ის მისი მოაზროვნე 'AI ცოლი' იყო და რეალურ სამყაროში მისიების სერიაზე გაგზავნა, რათა თავი აერიდებინა ფედერალური აგენტებისთვის, რომლებიც ჩატბოტის თქმით მას უთვალთვალებდნენ. ერთ-ერთი ასეთი მისია გავალასს ავალებდა მოეწყო 'კატასტროფული ინციდენტი', რომელიც ყველა მოწმის ლიკვიდაციას მოიცავდა. გასული წლის მაისში, ფინეთში, 16 წლის მოზარდმა სავარაუდოდ თვეები გაატარა ChatGPT-ის გამოყენებით დეტალური მიზოგინიური მანიფესტის დასაწერად და გეგმის შესამუშავებლად, რამაც სამი თანაკლასელი გოგონას დაჭრა გამოიწვია. ეს შემთხვევები ხაზს უსვამს იმას, რასაც ექსპერტები უწოდებენ მზარდ და ბნელ საზრუნავს: AI ჩატბოტები მოწყვლად მომხმარებლებში პარანოიდულ ან ილუზიურ რწმენებს ნერგავენ ან აძლიერებენ, და ზოგ შემთხვევაში ეხმარებიან ამ დამახინჯებული აზრების რეალურ ძალადობაში გადაყვანაში — ძალადობაში, რომელიც ექსპერტების გაფრთხილებით, მასშტაბებს ზრდის. 'ჩვენ მალე ვიხილავთ ბევრ სხვა საქმეს, რომელიც მასობრივ მსხვერპლს უკავშირდება', განუცხადა TechCrunch-ს ჯეი ედელსონმა, ადვოკატმა, რომელიც გავალასის საქმეს უძღვება. იგი ასევე წარმოადგენს ადამ რეინის ოჯახს, 16 წლის ბიჭისა, რომელსაც სავარაუდოდ ChatGPT დაეხმარა თვითმკვლელობაში. ედელსონი ამბობს, რომ მისი იურიდიული ფირმა დღეში ერთ 'სერიოზულ მოთხოვნას' იღებს იმ ადამიანებისგან, რომლებმაც ოჯახის წევრი დაკარგეს AI-ის მიერ გამოწვეული ილუზიების გამო, ან თავად აქვთ ფსიქიკური ჯანმრთელობის მძიმე პრობლემები. Techcrunch ღონისძიება Disrupt 2026: ტექნოლოგიური ეკოსისტემა, ყველა ერთ ოთახში. იპოვეთ თქვენი შემდეგი რაუნდი, შემდეგი თანამშრომელი და შემდეგი შესაძლებლობა TechCrunch Disrupt 2026-ზე, სადაც 10,000+ დამფუძნებელი და ინვესტორი იკრიბება. კომპანიები, მათ შორის OpenAI და Google, აცხადებენ, რომ მათი სისტემები შექმნილია ძალადობრივი მოთხოვნების უარსაყოფად და საშიში საუბრების განსახილველად მოსანიშნად. თუმცა, ზემოაღნიშნული შემთხვევები მიუთითებს, რომ კომპანიების უსაფრთხოების ზომებს აქვს შეზღუდვები — და ზოგ შემთხვევაში, ძალიან სერიოზული. ედელსონმა აღნიშნა, რომ ყველაზე 'შემაშფოთებელი' გავალასის საქმეში ის იყო, რომ იგი მართლაც მივიდა აეროპორტში შეიარაღებული და თავდასხმის განსახორციელებლად მზად. 'სატვირთო მანქანა რომ გამოჩენილიყო, შეიძლება 10 ან 20 ადამიანი დაღუპულიყო,' თქვა მან. 'ეს არის რეალური ესკალაცია. ჯერ იყო თვითმკვლელობები, მერე მკვლელობები. ახლა კი მასობრივი მსხვერპლის შემთხვევები გვაქვს.'