Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ซึ่งลาออกจากบริษัทเมื่อเดือนก่อน ได้ประกาศเปิดตัวบริษัท AI แห่งใหม่ของเขา โดยใช้ชื่อว่า Safe Superintelligence หรือ SSI

“ผมกำลังตั้งบริษัทใหม่” Sutskever โพสต์บน X เมื่อวันพุธ “เราจะมุ่งสร้างสติปัญญาขั้นสูงที่ปลอดภัยอย่างตรงไปตรงมา โดยมีความมุ่งมั่นเดียว เป้าหมายเดียว และผลิตภัณฑ์เดียว”

Sutskever เป็นหัวหน้านักวิทยาศาสตร์ AI ของ OpenAI และเป็นหัวหน้าทีม Superalignment ร่วมกับ Jan Leike ซึ่งลาออกไปเมื่อเดือนพฤษภาคมและไปร่วมงานกับบริษัท AI คู่แข่งอย่าง Anthropic ทีม Superalignment ของ OpenAI มีหน้าที่ในการควบคุมระบบ AI ให้อยู่ในทิศทางที่เหมาะสม แต่ถูกยุบไม่นานหลังจากที่ Sutskever และ Leike ประกาศลาออก ซึ่งเป็นส่วนที่ Sutskever ประกาศว่าจะให้ความสำคัญสูงสุดกับบริษัทใหม่ของเขา

“SSI คือภารกิจของเรา ชื่อของเรา และแผนงานทั้งหมดของเรา มันเป็นจุดสนใจเดียวของพวกเรา” บัญชีของ SSI โพสต์บน X “การโฟกัสไปที่จุดเดียวของเราหมายถึงเราจะไม่ถูกรบกวนจากความคาดหวังจากค่าใช้จ่ายที่ใช้ไปหรือวงจรของผลิตภัณฑ์ และรูปแบบธุรกิจของเราหมายถึง ความปลอดภัย การมั่นคง และความก้าวหน้า จะถูกป้องกันจากแรงกดดันจากสภาพตลาดในระยะสั้น" Sutskever จะเริ่มต้นบริษัทร่วมกับ Daniel Gross ซึ่งเคยดูแลด้าน AI ให้กับ Apple และ Daniel Levy ซึ่งเคยอยู่กับ OpenAI เช่นกัน บริษัทจะตั้งสำนักงานใน Palo Alto, California และ  Tel Aviv

Sutskever คือหนึ่งในสมาชิกคณะกรรมการ OpenAI ที่อยู่เบื้องหลังมหากาพย์ความพยายามที่จะขับไล่ Sam Altman ในเดือนพฤศจิกายนปีที่แล้ว Altman และ Sutskever มีความเห็นไม่ตรงกันเกี่ยวกับการสร้างขอบเขตให้กับ AI เพื่อความปลอดภัยในอนาคต ซึ่งน่าจะเป็นสาเหตุสำคัญที่เขาอยากออกมาสร้างบริษัทใหม่ที่มุ่งเน้นไปที่ AI ที่มีความปลอดภัยจริงๆ โดยไม่ต้องยอมลดความปลอดภัยเพื่อสร้างผลกำไรเหมือนอย่างที่ OpenAI กำลังเป็นอยู่

ที่มา: https://www.cnbc.com/2024/06/19/openai-co-founder-ilya-sutskever-announces-safe-superintelligence.html