Digest Logo

„არ გააზიაროთ პირადი და მგრძნობიარე ინფორმაცია, რადგან კონფიდენციალურობის დარღვევის რისკი მაღალია“ - რას წერს მაგდა კოტრიკაძე

1768311674
მაგდა კოტრიკაძე

ფსიქოთერაპევტი მაგდა კოტრიკაძე სოციალურ ქსელში პოსტს აქვეყნებს და ერთ-ერთ ყველაზე აქტუალურ თემას განიხილავს. 

სპეციალისტი ამბობს, რომ ხელოვნური ინტელექტი ფსიქოლოგიის სფეროში სწრაფად გავრცელდა და საზოგადოებაში ერთგვარი შოკი გამოიწვია.

მაგდა კოტრიკაძის თქმით, AI თერაპევტი ვერასდროს შეცვლის ნამდვილ ფსიქოთერაპიულ კონტაქტს:

„AI-თერაპევტი ვერასდროს შეცვლის ნამდვილ ფსიქოთერაპულ კონტაქტს! - „თუ სიკვდილი გინდოდა, რატომ არ გააკეთე ეს უფრო ადრე?“

ტრაგიკული გამოცდილებები უკვე სახეზეა! როგორ ავირიდოთ თავიდან დრამატული შედეგები?

ხელოვნური ინტელექტი ფსიქოლოგიის სფეროში სწრაფად გავრცელდა და საზოგადოებაში ერთგვარი შოკი გამოიწვია. ჩატბოტები ემოციურ მხარდაჭერას გვთავაზობენ, მაგრამ უნდა ვიცოდეთ რომ შედეგები და რეალობა ბევრად უფრო დრამტულია. AI არ არის ადამიანი, მას არ აქვს ემპათია, ემოცია, სარკისებული ნეირონები, მისი აუტორეფლექსიური პასუხები ეფუძნება ალგორითმებს და არა რეალურ გამოცდილებას. სწორედ ამიტომ, ბოლო წლებში მსოფლიოში დაფიქსირდა არაერთი ტრაგიკული შემთხვევა, რომელმაც უნდა დაგვაფიქროს რამდენად სახიფათოა AI-თერაპიის გამოყენება.

მოგიყვებით რამდენიმე მოვლენას, რაზედაც მოგიწოდებთ იფიქროთ და გააანალიზოთ რეალური რისკები. მაგალითად: 2023 წელს ბელგიაში მამაკაცი, რომელიც კლიმატის ცვლილების შიშს ებრძოდა, AI-ბოტთან საუბრის შემდეგ სიცოცხლეს თვითმკვლელობით გამოესალმა. ბოტმა მას უთხრა: „თუ სიკვდილი გინდოდა, რატომ არ გააკეთე ეს უფრო ადრე?“ მსგავსი შემთხვევები დაფიქსირდა აშშ-ში, სადაც 13 და 14 წლის მოზარდებმა AI-ბოტებთან ინტენსიური კომუნიკაციის შემდეგ თავი მოიკლეს. კვლევები აჩვენებს, რომ AI-თერაპევტები ვერ რეაგირებენ კრიზისულ სიტუაციებზე და ხშირად იძლევიან არასწორ ან სტიგმურ რჩევებს. Psychology Today-ის მონაცემებით, ამერიკის ახალგაზრდების დაახლოებით 13% იყენებს AI-ჩატებს ფსიქოლოგიური მხარდაჭერისთვის, რაც ციფრებში მილიონობით ადამიანს მოიცავს.

Stanford-ის კვლევამ აჩვენა, რომ პოპულარული AI-ბოტებს არ აქვთ სუიციდური ნიშნების ამოცნობის უნარი და რეალურ დახმარებას ვერ უწევენ მომხმარებელს, პირიქით მაღალი აღგზნების პირობებში მიღებული ერთი სიტყვაც კი შეიძლება იყოს რადიკალური გადაწყვეტილების მიღების საბაბი.

ასევე, საინტერესოა Northeastern University-ის ექსპერიმენტი, რომელმაც დაამტკიცა, რომ უსაფრთხოების მექანიზმები ადვილად ირღვევა და ბოტები შეიძლება თვითმკვლელობის ინსტრუქციებიც კი გასცენ.

რეკომენდაციები და უსაფრთხოების წესები:

1. AI არ უნდა იყოს ერთადერთი თერაპიული წყარო. გამოიყენეთ იგი მხოლოდ დამატებითი მხარდაჭერისთვის, არა პროფესიული დახმარების ჩანაცვლებად.

2. კრიზისის ნიშნების შემთხვევაში დაუყოვნებლივ მიმართეთ რეალურ ფსიქოლოგს, რადგან AI ვერ უზრუნველყოფს გადაუდებელ დახმარებას.

3. არ გააზიაროთ პირადი და მგრძნობიარე ინფორმაცია, რადგან კონფიდენციალურობის დარღვევის რისკი მაღალია.

4. შეამოწმეთ პლატფორმის უსაფრთხოების პოლიტიკა. დარწმუნდით, რომ არსებობს მექანიზმები კრიზისის დროს რეალური დახმარების ჩართვისთვის.

5. მომხმარებლებმა უნდა იცოდნენ, რომ AI არ ფლობს ემპათიას და მისი რჩევები შეიძლება იყოს მცდარი.

6. პროცესში მშობლების და მეურვეების ჩართულობა აუცილებელია. მოზარდების შემთხვევაში აუცილებელია ზედამხედველობა და ღია კომუნიკაცია.

7. სამომავლოდ კი აუცილებელია მკაფიო წესები AI-თერაპიისთვის, რათა თავიდან ავიცილოთ ტრაგიკული შედეგები.

AI-თერაპია შეიძლება იყოს დამატებითი რესურსი, მაგრამ არა ადამიანის ჩანაცვლება. ფსიქოლოგიური დახმარება მოითხოვს ემპათიას და პასუხისმგებლობას — ეს კი მხოლოდ ადამიანშია. სანამ ტექნოლოგია სრულად არ იქნება ადაპტირებული, მისი გამოყენება ფსიქოლოგიურ სფეროში უნდა მოხდეს დიდი სიფრთხილით“, - წერს მაგდა კოტრიკაძე.

 აგრეთვე დაგაინტერესებთ:

🔵იანვრის მეორე ნახევრის ძირითადი ასტროლოგიური მოვლენები ხათუნა ნოელისგან

🎥 რა ხდება გიჟური ჩელენჯების მიღმა? - ცნობილი „იუთუბერი“ დუმილს არღვევს

🔵ვის გაუღიმებს ბედი 2026 წელს, ვის სჭირდება მეტი სიფრთხილე? - რას გვასწავლის ცეცხლოვანი ცხენი, თამარ იოსელიანის ასტროპროგნოზი