ჯოფრი ჰინტონმა, რომელიც ამდრომდე ხელოვნური ინტელექტის „ნათლიად“ მოიხსენიება, მის მიერ შექმნილი ტექნოლოგიის შესაძლო საფრთხეებზე საუბარი დაიწყო.
სწორედ ჰინტონის მიერ შექმნილ ნერვულ ქსელებზეა აგებული ხელოვნური ინტელექტის სისტემები, რომლებსაც უკვე დღეს საზოგადოება აქტიურად იყენებს. იგი ბოლო ათწლეულის განმავლობაში განმავლობაში Google-ში ნახევარ განაკვეთზე ხელოვნური ინტელექტის განვითარების მიმართულებით მუშაობდა. ინფორმაციას CNN ავრცელებს.
„მე ჩემს თავს მხოლოდ იმით ვანუგეშებ, რომ ხელოვნურ ინტელექტს მე თუ არ შევქმნიდი, სხვა შექმნიდა“, – განაცხადა ჰინტონმა New York Times-თან.
ამერიკელმა მეცნიერმა ორშაბათს ტვიტერზე პოსტი გამოაქვეყნა, სადაც თავისუფლად ისაუბრა ხელოვნური ინტელექტის რისკებზე და ამავე პოსტში ახსნა მისი სამსახურიდან წამოსვლის მიზეზი.
„მე წამოვედი Google-დან, რათა შემეძლოს ვისაუბრო ხელოვნური ინტელექტის საშიშროებაზე. არ მაინტერესებს, თუ როგორ აისახება ეს ყველაფერი ჩემს ყოფილ სამსახურსა და კომპანიაზე.
ეს ტექნოლოგია შესაძლოა, რომ ადამიანზე ჭკვიანი გახდეს. ჩემი კოლეგების უმეტესობას სჯეროდა, რომ ეს ჯერ არ მოხდებოდა მინიმუმ 30-50 წელი, მაგრამ მე ასე აღარ ვფიქრობ“, – ვკითხულობთ ჰინტონის პოსტში.
Google-ის მთავარმა მეცნიერმა, ჯეფ დინმა კი თქვა, რომ ჰინტონმა ხელოვნურ ინტელექტში ფუნდამენტურ გარღვევებს მიაღწია და ასევე მის მიმართ მადლიერება გამოხატა.
„ჩვენ ვიღებთ პასუხისმგებლობას AI-ს მიმართ. მუდმივად ვცდილობთ გაჩენილი რისკების შესწავლას და ამის პარალელურად განახლებებსაც თამამად ვაკეთებთ“, – ამბობს ჯეფ დინი.
შეგახსენებთ, რომ ხელოვნური ინტელექტის ჩატბოტები ჯერ კიდევ გასული წლიდან გამოჩნდნენ და ხალხში პოპულარობა მალევე მოიპოვეს. აღნიშნული სფეროს მოწინავე კომპანიები კი არიან OpenAI, Microsoft და Google.
ჯოფრი ჰინტონის გარდა, მიმდინარე წლის მარტში ტექნოლოგიურ სფეროში მოღვაწე მნიშვნელოვანმა ფიგურებმა ხელი მოაწერეს წერილს, რომელიც ხელოვნური ინტელექტის განვითარების დროებით, ამ შემთხვევაში კი 6 თვით შეზღუდვას მოითხოვდა. ხელმომწერთა შორის იყო მსოფლიოში ერთ-ერთი ყველაზე მდიდარი ადამიანი, ილონ მასკიც.