Siapa itu Jan Leike?


Berikut adalah profil lengkap tentang Jan Leike, tokoh penting di dunia AI safety dan superalignment yang menjadi perbualan hangat:


---

🧑‍🔬 Siapa itu Jan Leike?

Pendidikan & asal-usul: Dapat PhD dalam teori reinforcement learning dari Australian National University setelah belajar di University of Freiburg, Jerman  .

Mulai karier di DeepMind, terlibat dalam penyelidikan keselamatan AI, kemudian menyertai Future of Humanity Institute di Oxford  .

Pada 2021, menyertai OpenAI, dan bersama Ilya Sutskever, memimpin Superalignment Team sejak 2023  .

Diiktiraf dalam senarai TIME100 AI pada 2023 dan 2024 sebagai tokoh paling berpengaruh dalam AI  .



---

🔥 Superalignment Team (OpenAI)

Ditubuhkan Julai 2023 dengan misi “mengawal sistem superintelligent agar selari dengan niat manusia”, diberikan 20% daripada kuasa pengkomputeran OpenAI  .

Fokus utama: mengajar AI canggih supaya patuh kepada nilai dan hasrat manusia, termasuk eksplorasi teknik automated oversight dan weak-to-strong generalization  .



---

⚠️ Keluar dari OpenAI atas alasan keselamatan

Mei 2024, Leike letak jawatan bersama Sutskever. Beliau menuduh OpenAI mengutamakan "shiny products" daripada keselamatan, dan mendedahkan tekanan mendapatkan sumber komputasi yang dijanjikan  .

Sam Altman mengakui kejujuran Leike dan memberi jaminan OpenAI akan peruntukkan lebih banyak sumber untuk keselamatan  .



---

🤝 Pindah ke Anthropic: Teruskan misi Superalignment

Hanya beberapa minggu selepas keluar, Leike menyertai Anthropic (ditubuhkan oleh bekas saintis OpenAI seperti Dario Amodei), yang mempunyai penekanan kuat pada AI keselamatan dan etika  .

Di Anthropic, beliau bantu bentuk pasukan baru dengan fokus:

Scalable oversight (pengawasan skala besar),

Weak‑to‑strong generalisation,

Automated alignment .




---

💡 Kenapa Jan Leike begitu kritikal?

Aspek Tambahan

Pengalaman teknikal besar Dari DeepMind → Oxford → OpenAI → Anthropic, beliau antara orang paling arif dalam alignment  
Penegas keselamatan AI Berani kritik OpenAI lepas rasa safety tak cukup diutamakan — tunjuk keberanian moral 
‘Hidden brain’ AI superintelligence Fokus kepada membina kerangka kawalan AI & proses automatik alignment — bukan sekadar model – inilah bahagian paling strategik dalam perlumbaan AGI



---

💬 Kesimpulan

Jan Leike ialah penyelidik AI selari (alignment) tahap tinggi, telah bersama projek Superalignment OpenAI dan kini meneruskan misi di Anthropic.

Perpindahan ini bukan sekadar perubahan kerjaya — ia simbol perpindahan berat ke arah keselamatan & kawalan AI, serta persaingan yang semakin sengit antara syarikat teknologi besar.

Mobilisi bakat seperti beliau menandakan bahawa dunia AI memasuki fasa kritikal, dan alignment kini jadi medan perjuangan utama.

Catat Ulasan

0 Ulasan