Kita hidup di masa di mana produktivitas bisa disubkontrakkan ke baris kode:
asisten AI menyeka tugas berulang, memberikan rekomendasi instan, dan membuat
presentasi yang rapi saat kita masih menyeduh kopi. Itu menyenangkan — sampai
kita menyadari ada sesuatu yang lenyap pelan-pelan: naluri, kecakapan tangan,
atau intuisi profesional yang dulu tumbuh lewat kegagalan. Pertanyaannya bukan
hanya “apakah AI membuat hidup lebih mudah?”, melainkan “apakah kemudahan itu
berbiaya diam-diam: kemunduran kemampuan yang kita anggap aman?” Tulisan ini
membaca sebuah seruan akademik penting yang menaruh curiga pada kenyamanan
itu, lalu menabrakkannya ke realitas sehari-hari kita.
Perkenalan
Nama Peneliti: Brooke N. Macnamara et al. (2024).
Judul: Does using artificial intelligence assistance accelerate skill decay
and hinder skill development without performers’ awareness?
Fokus utama: Sebuah perspektif teoretis yang mengeksplorasi bagaimana bantuan
AI—dari fitur auto-complete sampai alat interpretasi gambar medis—bisa
mempercepat ‘skill decay’ (kemunduran keterampilan) pada para ahli dan
menghambat akuisisi keterampilan bagi pemula; yang mengkhawatirkan, pengguna
mungkin tidak menyadari pelemahan kemampuan itu. Makalah ini bukan eksperimen
laboratorium penuh; ia mengumpulkan bukti konseptual, contoh domain, dan
agenda penelitian untuk menilai risiko dan cara mendeteksinya. Relevansi: saat
organisasi cepat mengadopsi AI untuk efisiensi, implikasi jangka panjang pada
modal manusia — pengasah pemikiran kritis dan keterampilan teknis — menjadi
isu strategis.
Bagian Inti
Bagian - A. Temuan dan Ide Kunci
Macnamara dan kolega menyodorkan sebuah argumen struktural: AI bukan sekadar
alat; ia dapat menjadi penyapu tugas-cognitive yang, ketika dipakai
terus-menerus, mengurangi frekuensi latihan mental yang membentuk keahlian.
Mereka menyoroti tiga jalur utama menuju “atrofi keterampilan”:
1. Pengurangan Praktek Aktif
Ketika AI mengerjakan bagian penting dari tugas, peluang untuk latihan
deliberate practice berkurang. Tanpa repetisi yang menantang, memori
prosedural dan pola pengambilan keputusan melemah.
2. Ketergantungan Pengakuan
AI sering memberi umpan balik instan tanpa memaksa pengguna mempertanyakan
atau memverifikasi proses, sehingga kemampuan metakognitif (menilai kapan dan
bagaimana solusi dibuat) tidak berkembang.
3. Blind Spot Kognitif
AI yang ‘baik’ menutupi kesalahan kecil sampai menjadi pola; para pelaku
mungkin merasakan performa tinggi, tetapi kualitas internal (kecepatan
berpikir, fleksibilitas strategi) menurun tanpa terdeteksi.
Intinya: keuntungan jangka pendek — akurasi dan efisiensi — berpotensi
menimbulkan kerugian jangka panjang pada modal kognitif individu. Namun,
penting dicatat bahwa makalah ini bersifat teoretis: ia menyusun argumen,
bukti anekdot, dan agenda penelitian, bukan menyajikan satu studi
eksperimental definitif. Penulis mengakhiri dengan panggilan untuk penelitian
multidisipliner agar hipotesis ini diuji dalam domain nyata (mis. radiologi,
penulisan profesional, pemrograman).
Persaingan antara manusia dan AI alias robot semakin sengit di masa
depan baca juga
Kemajuan AI Kemunduran Manusia
Bagian - B. Tafsir dan Kritik
Mari bersikap brutal dan lembut sekaligus. Argumen Macnamara terasa seperti
alarm etis yang diperlukan: ketika organisasi memakai AI sebagai KPI—“lebih
cepat, lebih sedikit human error”—maka human capital sering dianggap variabel
biaya yang bisa dipangkas. Dari sudut pandang penulis, ada beberapa ruang
terang dan beberapa kekelaman yang perlu ditandai.
Pertama, kekuatan makalah adalah menyatukan kecemasan yang banyak profesional
rasakan sebagai intuisi: ada sensasi “kaku” pada kemampuan setelah
bertahun-tahun bergantung pada autopilot. Itu nyata, dan Macnamara memberi
kerangka bahasa untuk mengatakannya tanpa terdengar puritan anti-teknologi. Ia
memaksa organisasi untuk menimbang metrik produktivitas melawan metrik
pembelajaran.
Kedua, kritiknya: makalah ini relatif konservatif dalam alternative
narratives. Misalnya, ada bukti empiris yang mulai muncul bahwa AI—jika
didesain sebagai scaffold edukasional—bisa mempercepat pembelajaran dengan
memberikan contoh berkualitas atau feedback terpersonalisasi (lihat studi yang
menunjukkan peningkatan performa menulis setelah latihan dengan AI). Artinya,
AI bukan takdir tunggal; ia platform yang bisa dikonfigurasi untuk membentuk
bukan menggantikan kemampuan.
Ketiga, soal epistemologi: tesis Macnamara berisiko menjadi self-fulfilling
prophecy kalau diinterpretasikan secara dogmatis—perusahaan menghentikan
penggunaan AI karena takut atrophy, lalu kinerja stagnan karena kehilangan
efisiensi yang sebenarnya memungkinkan pekerja fokus pada tugas bernilai
tinggi. Solusinya bukan penolakan, melainkan desain kebijakan penggunaan.
Misalnya: progressive fading—AI memberi dukungan awal, lalu secara bertahap
mengurangi bantuan sehingga pengguna harus menginternalisasi proses. Atau
dual-run systems: tugas tetap dijalankan manusia secara periodik tanpa bantuan
untuk menjaga ‘muscle memory’ kognitif.
Keempat, budaya dan nilai: catatan paling menarik adalah bagaimana atrophy
mungkin tidak merata. Profesi yang sudah mengalami deskilling historis (mis.
beberapa pekerjaan administratif) lebih rentan, sementara bidang yang menuntut
improvisasi dan pengalaman empiris (mis. seni klinis, negosiasi politik)
mungkin mempertahankan bentengnya karena latihan situasional sulit diotomasi.
Ini menimbulkan dilema etis dan politik: siapa yang mendapatkan pelatihan
ulang? Siapa yang kehilangan status profesional karena ‘automasi halus’?
Singkatnya: saya condong pada posisi pragmatis dan waspada—mengakui potensi
produktivitas AI tanpa menjadi apologist. Kita harus meminimalkan risiko
atrophy dengan kebijakan HR, kurikulum pelatihan yang cerdas, dan desain AI
yang memprioritaskan scaffolding pembelajaran, bukan penggantian tugas
sepenuhnya.
Bagian - C. Tabrakkan dengan Realitas Kita
Tarik napas: bagaimana ini menyentuh kehidupan kita di Indonesia?
1. Di tempat kerja — Banyak start-up dan korporasi di kota besar mengadopsi AI
untuk otomatisasi customer service, analitik penjualan, dan pembuatan dokumen.
Di kantor kecil, kadang “AI” berarti template ChatGPT dipakai untuk semua
proposal. Ketergantungan seperti ini berbahaya: junior staff mungkin tidak
pernah belajar menulis argumen yang koheren dari nol—mereka hanya belajar
mengedit output AI. Hasilnya: kemampuan berpikir struktural melemah, padahal
itu penting untuk kenaikan karier jangka panjang. Masalah ini bukan hanya
teknis; ini soal talent pipeline nasional.
2. Di pendidikan — Guru dan dosen sudah menghadapi dilema: tugas siswa yang
dikerjakan oleh AI vs kebutuhan siswa untuk berpikir. Jika sistem pendidikan
hanya mengejar nilai dan kuantitas penugasan, AI menjadi jalan pintas; jika
pendidikan menekankan proses dan refleksi, AI bisa jadi alat bantu yang
memperkaya. Pendekatan ‘AI-as-scaffold’ harus diintegrasikan: misalnya, minta
siswa menjelaskan alasan perubahan yang dilakukan terhadap teks AI—supaya
metakognisi tetap terlatih.
3. Media sosial & identitas — Di media sosial, kemampuan retorika, narasi,
dan persuasif sering didorong oleh template yang viral. Influencer yang
mengandalkan konten “AI-polished” bisa kehilangan suara otentik. Lebih jauh:
politik identitas bisa diperkaya atau dipermudah oleh AI—tools yang
menghasilkan pidato retoris instan memungkinkan aktor politik meniru gaya
tertentu tanpa memahami substansi. Di sini atrophy bukan hanya teknis tapi
etis: kehilangan kapasitas untuk mengartikulasikan narasi kolektif yang
bernas.
4. Relasi manusia — Hubungan kerja dan interpersonal juga dipengaruhi. Ketika
asisten menulis email empatik, bisakah seseorang lagi-lagi merasakan empati
itu? Empati bukan hanya kata; ia terasah lewat latihan mendengarkan dan
respons yang tak langsung terotomasi. Jika kita memoutsource “kepekaan” ke AI,
kita mungkin merosot dalam keterampilan emosional yang membuat komunitas
berfungsi.
5. Politik & kebijakan — Di ranah kebijakan publik, pemerintah perlu
memikirkan regulasi yang lebih halus daripada larangan total. Misalnya:
persyaratan “periodic unaided practice” untuk profesi kritis (dokter,
pengacara, auditor), pengaturan sertifikasi ulang yang memasukkan tugas tanpa
bantuan AI, atau insentif bagi industri untuk mengembangkan explainable AI
yang mendukung pembelajaran pengguna.
Pada akhirnya, konteks Indonesia — dengan ketimpangan akses teknologi dan
disparitas pendidikan — menambah lapisan kompleks: beberapa kelompok berisiko
mengalami deskilling sementara yang lain mendapatkan peningkatan kapabilitas.
Kebijakan tanpa kepekaan pada distribusi ini akan memperburuk ketimpangan.
Penutup
Kita mendapat janji: AI akan membebaskan kita dari pekerjaan yang membosankan.
Kita juga menerima risiko: pembebasan itu mungkin mengandung amnesia
keterampilan. Pertanyaan yang mengganggu adalah bukan apakah AI “buruk” atau
“baik”, tetapi: bagaimana kita merancang hubungan manusia-AI agar
produktivitas hari ini tidak mengorbankan kapasitas esensial untuk esok hari?
Jika kita gagal menjawabnya, generasi berikutnya mungkin mewarisi dunia yang
lebih cepat — tapi lebih rapuh di dalamnya.
Referensi
Macnamara, B. N., Berber, I., Çavuşoğlu, M. C., Krupinski, E. A.,
Nallapareddy, N., Nelson, N. E., Smith, P. J., Wilson-Delfosse, A. L., &
Ray, S. (2024). Does using artificial intelligence assistance accelerate skill
decay and hinder skill development without performers’ awareness? Cognitive
Research: Principles and Implications.
Tambahan : Lira, B., Rogers, T., Goldstein, D. G., Ungar, L., & Duckworth,
A. L. (2025). Learning not cheating: AI assistance can enhance rather than
hinder skill development (preprint).
Tidak ada komentar:
Posting Komentar