
Ilya Sutskever ដែលជាសហស្ថាបនិករបស់ OpenAI និងជាអតីតប្រធានអ្នកវិទ្យាសាស្ត្រកំពុងចាប់ផ្តើមក្រុមហ៊ុន AI ថ្មីផ្តោតលើសុវត្ថិភាព។ នៅក្នុងការប្រកាសកាលពីថ្ងៃពុធ លោក Sutskever បានបង្ហាញនូវ Safe Superintelligence Inc. (SSI) ដែលជាការចាប់ផ្តើមជាមួយនឹង “គោលដៅមួយ និងផលិតផលមួយ” ៖ ការបង្កើតប្រព័ន្ធ AI ប្រកបដោយសុវត្ថិភាព និងថាមពល។
សេចក្តីប្រកាសពណ៌នាអំពី SSI ថាជាការចាប់ផ្តើមអាជីវកម្មដែល “ឈានទៅរកសុវត្ថិភាព និងសមត្ថភាពស្របគ្នា” ដែលអនុញ្ញាតឱ្យក្រុមហ៊ុនជំរុញប្រព័ន្ធ AI របស់ខ្លួនយ៉ាងឆាប់រហ័ស ខណៈពេលដែលនៅតែផ្តល់អាទិភាពដល់សុវត្ថិភាព។
សេចក្តីប្រកាសនេះណែនាំការបណ្តាក់ទុនថ្មី អ៊ីសូឡង់សុវត្ថិភាពសុវត្ថិភាព (SSI) ដោយសង្កត់ធ្ងន់ថាសុវត្ថិភាព និងវឌ្ឍនភាពត្រូវបានផ្តល់អាទិភាពលើសម្ពាធពាណិជ្ជកម្មរយៈពេលខ្លី។ សហស្ថាបនិកដោយ Ilya Sutskever, Daniel Gross, និង Daniel Levy, SSI មានគោលបំណងធ្វើប្រតិបត្តិការដោយឯករាជ្យដើម្បីសម្រេចបាននូវមាត្រដ្ឋានដោយសន្តិវិធី។
Ilya Sutskever បានដើរតួយ៉ាងសំខាន់ក្នុងការដកចេញពីនាយកប្រតិបត្តិ OpenAI លោក Sam Altman កាលពីឆ្នាំមុន មុនពេលចាកចេញពី OpenAI ក្នុងខែឧសភា ដើម្បីចាប់ផ្តើមគម្រោងថ្មីមួយ។ បន្ទាប់ពីការចាកចេញរបស់ Sutskever អ្នកស្រាវជ្រាវ AI លោក Jan Leike បានលាលែងពីតំណែងដោយរិះគន់ការផ្តល់អាទិភាពនៃផលិតផលលេចធ្លោជាងសារសុវត្ថិភាពនៅ OpenAI ។ អ្នកស្រាវជ្រាវគោលនយោបាយ OpenAI ម្នាក់ទៀតគឺ Gretchen Krueger បានបន្ទរពីការព្រួយបារម្ភអំពីសុវត្ថិភាពនៅពេលប្រកាសពីការចាកចេញរបស់នាង។
OpenAI កំពុងឈានទៅមុខជាមួយនឹងការសហការជាមួយ Apple និង Microsoft ដែលផ្ទុយទៅនឹងវិធីសាស្រ្តនៃសុវត្ថិភាពសុវត្ថិភាពសុវត្ថិភាព (SSI) ដែលមិនត្រូវបានគេរំពឹងថានឹងបន្តភាពជាដៃគូបែបនេះនាពេលអនាគតដ៏ខ្លីខាងមុខនេះ។ ការផ្តោតសំខាន់របស់ SSI យោងទៅតាម Ilya Sutskever នៅក្នុងបទសម្ភាសន៍ជាមួយ Bloomberg គឺការបង្កើតភាពវៃឆ្លាតដែលមានសុវត្ថិភាពជាផលិតផលដំបូងរបស់ពួកគេ ដោយមិនមានផែនការសម្រាប់កិច្ចខិតខំប្រឹងប្រែងផ្សេងទៀតរហូតដល់គោលដៅនេះត្រូវបានសម្រេច។
June 20, 2024