Berikut adalah profil lengkap tentang Jan Leike, tokoh penting di dunia AI safety dan superalignment yang menjadi perbualan hangat:
---
🧑🔬 Siapa itu Jan Leike?
Pendidikan & asal-usul: Dapat PhD dalam teori reinforcement learning dari Australian National University setelah belajar di University of Freiburg, Jerman .
Mulai karier di DeepMind, terlibat dalam penyelidikan keselamatan AI, kemudian menyertai Future of Humanity Institute di Oxford .
Pada 2021, menyertai OpenAI, dan bersama Ilya Sutskever, memimpin Superalignment Team sejak 2023 .
Diiktiraf dalam senarai TIME100 AI pada 2023 dan 2024 sebagai tokoh paling berpengaruh dalam AI .
---
🔥 Superalignment Team (OpenAI)
Ditubuhkan Julai 2023 dengan misi “mengawal sistem superintelligent agar selari dengan niat manusia”, diberikan 20% daripada kuasa pengkomputeran OpenAI .
Fokus utama: mengajar AI canggih supaya patuh kepada nilai dan hasrat manusia, termasuk eksplorasi teknik automated oversight dan weak-to-strong generalization .
---
⚠️ Keluar dari OpenAI atas alasan keselamatan
Mei 2024, Leike letak jawatan bersama Sutskever. Beliau menuduh OpenAI mengutamakan "shiny products" daripada keselamatan, dan mendedahkan tekanan mendapatkan sumber komputasi yang dijanjikan .
Sam Altman mengakui kejujuran Leike dan memberi jaminan OpenAI akan peruntukkan lebih banyak sumber untuk keselamatan .
---
🤝 Pindah ke Anthropic: Teruskan misi Superalignment
Hanya beberapa minggu selepas keluar, Leike menyertai Anthropic (ditubuhkan oleh bekas saintis OpenAI seperti Dario Amodei), yang mempunyai penekanan kuat pada AI keselamatan dan etika .
Di Anthropic, beliau bantu bentuk pasukan baru dengan fokus:
Scalable oversight (pengawasan skala besar),
Weak‑to‑strong generalisation,
Automated alignment .
---
💡 Kenapa Jan Leike begitu kritikal?
Aspek Tambahan
Pengalaman teknikal besar Dari DeepMind → Oxford → OpenAI → Anthropic, beliau antara orang paling arif dalam alignment
Penegas keselamatan AI Berani kritik OpenAI lepas rasa safety tak cukup diutamakan — tunjuk keberanian moral
‘Hidden brain’ AI superintelligence Fokus kepada membina kerangka kawalan AI & proses automatik alignment — bukan sekadar model – inilah bahagian paling strategik dalam perlumbaan AGI
---
💬 Kesimpulan
Jan Leike ialah penyelidik AI selari (alignment) tahap tinggi, telah bersama projek Superalignment OpenAI dan kini meneruskan misi di Anthropic.
Perpindahan ini bukan sekadar perubahan kerjaya — ia simbol perpindahan berat ke arah keselamatan & kawalan AI, serta persaingan yang semakin sengit antara syarikat teknologi besar.
Mobilisi bakat seperti beliau menandakan bahawa dunia AI memasuki fasa kritikal, dan alignment kini jadi medan perjuangan utama.
0 Ulasan