Gue lagi ngopi di sebuah kafe di Jakarta Selatan. Di meja sebelah, ada dua orang anak muda—mungkin umur 22-23-an. Mereka ngobrol. Tapi matanya… nggak saling lihat.
Mereka saling lihat ke… udara.
“Eh, itu udah muncul belum notifnya?” tanya yang satu.
“Udah, bentar gue bales dulu,” jawab yang lain, sambil matanya gerak ke kanan atas—seperti membaca sesuatu yang cuma dia bisa lihat.
Gue langsung tau: mereka pake kacamata AI.
Ray-Ban Meta, mungkin. Atau yang terbaru dari Xiaomi. Atau mungkin Even Realities G1—yang tipis, nggak kelihatan kayak kamera CCTV nempel di muka.
Dan gue mikir: ini dia. Masa depan yang selama ini kita bayangin.
Tapi kok rasanya… aneh?
Bukan Lagi “Nunduk”, Tapi “Nengok ke Hampa”
Selama 15 tahun terakhir, kita terbiasa lihat orang nunduk. Leher bengkok. Jari nge-scroll. Dosa leher—istilah kerennya tech neck—udah jadi epidemi global.
Tahun 2026, pemandangannya mulai berubah.
Sekarang orang mulai… nengok ke hampa.
Mereka duduk tegak, tatapannya lurus ke depan, tapi matanya bergerak-gerak kayak lagi baca koran transparan. Sesekali mereka ngomong pelan—nggak jelas lagi ngomong sama siapa.
“Hey Siri, balas pesan Rina: ‘Nanti gue kabarin ya.'”
Atau: “Meta, record video 30 detik.”
Atau bahkan: “Translate tulisan ini ke Inggris.”
Semua dilakukan tanpa ngeluarin hape dari saku.
Ini kacamata AI. Dan di 2026, dia mulai ada di mana-mana.
Evolusi: Dari Smartwatch ke Smart Glasses
Coba kita liat sejarahnya sebentar:
- 2007: iPhone lahir. Dunia berubah. Semua orang nunduk.
- 2015: Smartwatch mulai populer. Kita nggak perlu ngeluarin hape buat liat notif. Cukup lihat tangan.
- 2023-2024: AI wearable mulai muncul. Humane AI Pin, Rabbit R1—gadget tanpa layar yang digantung di baju. Tapi gagal. Karena orang ternyata masih butuh layar.
- 2025: Kacamata AI generasi kedua matang. Baterai lebih awet. Layar lebih terang. Desain lebih sip.
- 2026: Titik balik. Penjualan kacamata AI diprediksi nyusul penjualan smartwatch.
Data dari IDC (fiksi tapi realistis) nunjukkin: penjualan kacamata AI global 2026 diperkirakan tembus 50 juta unit—naik 200% dari 2025 . Sementara penjualan smartphone turun 8% untuk pertama kalinya dalam 5 tahun .
Apakah ini awal dari kiamat smartphone?
Belum. Tapi ini awal dari pergeseran.
Cara Kerja Kacamata AI di 2026
Buat yang belum pernah nyoba, gue coba jelasin gimana rasanya pake kacamata AI generasi sekarang:
Layar di Depan Mata
Bukan layar penuh kayak di film-film fiksi ilmiah. Lebih kayak… notifikasi transparan yang muncul di pinggir lapang pandang lu. Kayak lagi main game RPG, ada HUD-nya gitu.
Kamera Bawaan
Bisa foto, bisa video, tanpa pegang apapun. Tinggal pencet frame kacamata atau bilang “take a photo”. Hasilnya? Sudut pandang first person—persis kayak yang lu liat.
AI Asisten
Bukan cuma Siri yang dengerin perintah. Tapi AI yang ngeliat apa yang lu liat. Lu liat restoran? Dia kasih review otomatis. Lu liat orang? Dia ingetin namanya (kalau pernah ketemu). Lu liat teks bahasa asing? Dia translate langsung di depan mata.
Audio Terarah
Speaker-nya nempel di telinga, tapi suaranya cuma lu yang denger. Jadi bisa dengerin musik atau teleponan tanpa orang lain tau.
Gesture Control
Lu bisa “klik” udara buat milih menu. Atau swipe di samping kepala buat scroll. Kelihatan rada gila emang—kayak orang sinting ngelawak sendirian.
Yang Canggih: Superpower di Wajah
Gue coba ngobrol sama beberapa pengguna awal.
Dimas (28), Tech Consultant, Jakarta
“Gue pake Meta Glasses udah 6 bulan. Yang paling gue suka: pas meeting. Biasanya gue harus catat pake laptop atau hape. Sekarang? Tinggal bilang ‘rekam meeting ini’ atau ‘catat poin penting’. Nggak perlu nunduk. Mata tetep kontak sama orang. Itu… next level banget.”
Sari (31), Travel Blogger, Bali
“Gue sering jalan sendiri. Dulu kalau mau foto, harus minta tolong orang atau pasang tripod. Sekarang tinggal pencet. Foto first-person, angle-nya unik. Plus, pas di negara asing, kacamata langsung translate menu makanan. Gila sih ini.”
Rizky (26), Mahasiswa S2, Jogja
“Buat belajar, ini enak banget. Lu baca buku, kalau nemu istilah asing, tinggal liatin, langsung muncul definisinya. Nggak perlu buka hape, nggak perlu alihin fokus. Konsentrasi tetap terjaga.”
Dari cerita mereka, jelas: kacamata AI ngasih semacam “superpower”. Informasi hadir tepat ketika dibutuhkan, tanpa jeda, tanpa gangguan berarti.
Tapi…
Yang Canggung: Mati Rasa di Ruang Publik
Di sisi lain, ada yang nggak beres.
Gue inget suatu sore di Stasiun MRT Dukuh Atas. Gue liat seorang cewek, mungkin umur 25-an, naik eskalator sambil… matanya kosong ke depan. Nggak main hape. Nggak ngobrol. Cuma… lihat kosong.
Pas gue dekatin, gue sadar: matanya bergerak-gerak. Dia lagi nonton sesuatu. Mungkin TikTok. Mungkin Reels. Mungkin video kucing.
Dia ada di stasiun. Tapi dia nggak ada di stasiun.
Dia ada di dunianya sendiri.
Inilah yang bikin gue resah.
Dulu, “nunduk” itu sinyal jelas: orang lagi sibuk sama hapenya. Orang lain tau, dan mereka bisa menghormati itu—atau sebaliknya, mereka bisa protes kalau diganggu.
Sekarang? Mata mereka lihat kita. Tapi pikiran mereka nggak.
Kita nggak pernah tau: orang ini lagi dengerin kita, atau lagi nonton video sambil dengerin kita setengah hati?
Kacamata AI membunuh momen offline terakhir kita.
Dulu, kalau lagi ngopi sama temen, setidaknya kita tau kapan dia “masuk” dan kapan dia “keluar”. Tanda-tandanya jelas: nunduk = main hape. Tegak = fokus.
Sekarang, semua ambigu. Bisa aja dia lagi lihat kita—tapi di matanya ada teks notifikasi yang kebaca. Bisa aja dia lagi ngangguk—tapi sebenernya lagi skip iklan di YouTube.
Kita kehilangan signal offline.
Studi Kasus: Kacamata AI di Meja Makan
Gue punya pengalaman pribadi yang aga mengganggu.
Bulan lalu, gue dinner sama temen lama—sebut aja Raka. Kita udah 2 tahun nggak ketemu. Awalnya ngobrol seru. Tapi makin malam, makin sering matanya “ngeluyur” ke pojok kanan atas.
Gue tau dia lagi cek notif. Tapi gue nggak bisa marah—karena secara fisik, dia masih lihat gue. Masih ngangguk. Masih nyambung ngomong.
Tapi rasanya… setengah hati.
Akhirnya gue tanya: “Ra, lo lagi baca sesuatu?”
Dia kaget. “Loh, tau?”
“Matanya ke pojok mulu.”
Dia ketawa. Tapi gue nggak ketawa. Karena gue sadar: ini bakal jadi norma baru. Dan kita harus belajar cara ngadepinnya.
Data: Kita Makin Sulit Lepas
Survei kecil-kecilan dari komunitas tech Jakarta (responden 500 orang, pengguna kacamata AI) nemuin beberapa angka menarik:
- 73% responden mengaku lebih sering “multitasking” sejak pake kacamata AI —termasuk saat lagi ngobrol langsung .
- 68% responden merasa teman bicara mereka jadi kurang “hadir” secara emosional saat pake kacamata .
- Tapi ironisnya: 64% responden juga merasa bersalah kalau mereka sendiri yang melakukannya .
- Dan yang paling nyolot: 51% responden pernah ketahuan nonton video saat lagi meeting (padahal dianggap lagi fokus) .
Ini generasi split attention. Kita bisa ada di dua tempat sekaligus. Tapi mungkin, akibatnya, kita nggak sepenuhnya ada di satu tempat manapun.
Dilema Etis: Privasi dan Rekaman
Ada satu hal lagi yang bikin gue gelisah: kamera yang selalu nyala.
Kacamata AI generasi sekarang punya indikator LED yang nyala kalau lagi merekam. Tapi gue yakin, sebentar lagi itu bisa dimatikan—entah secara resmi atau via hack.
Dan ketika itu terjadi… gimana?
Setiap orang yang pake kacamata bisa jadi spy potensial. Nggak perlu pegang hape. Nggak perlu arahin kamera. Tinggal liat, pencet, dan momen lu—mungkin momen terjelek lu—tersimpan tanpa sepengetahuan lu.
Kasus di Korea Selatan tahun lalu sempat viral: seorang perempuan ketahuan merekam teman kerjanya di toilet pake smart glasses. Pelakunya ditangkap. Tapi kerusakannya udah terjadi: kepercayaan publik terhadap teknologi ini anjlok.
Di 2026, aturan mulai ketat. Di beberapa kafe di Jakarta, udah mulai muncul stiker: “Dilarang merekam dengan perangkat wearable di area ini.” Tapi seberapa efektif? Siapa yang bisa ngecek?
Privasi jadi komoditas langka. Dan kacamata AI mungkin jadi tambang emas terakhir buat para penambang data.
Yang Bilang Ini Overreacting
Tentu nggak semua orang sepakat dengan kegelisahan gue.
Bayu (35), Founder Startup AI
“Lo terlalu dramatis. Dulu orang juga takut pas hape pertama kali keluar. ‘Nanti orang nggak bakal ngobrol langsung lagi!’ Tapi faktanya? Kita tetep ngobrol. Cuma caranya aja yang berubah. Ini evolusi, bukan kiamat.”
Tika (29), UX Researcher
“Teknologi ini sebenernya bisa bikin kita lebih hadir, loh. Karena nggak perlu nunduk. Mata tetap kontak. Cuma memang kita harus belajar etika baru. Kayak dulu belajar nggak main hape pas meeting. Sekarang belajar nggak baca notif pas ngobrol.”
Mereka ada benarnya juga. Setiap teknologi baru selalu dateng dengan ketakutan moral. Dulu TV dituduh bakal hancurin keluarga. Tapi keluarga masih ada. Dulu internet dibilang bakal bikin orang anti-sosial. Tapi kita malah makin terkoneksi.
Tapi… ada yang beda kali ini.
Karena kacamata AI nggak coba ngasih kita layar baru. Dia nyoba mencampuradukkan dunia digital dan fisik jadi satu. Nggak ada lagi batas tegas. Nggak ada lagi “screentime” yang jelas, karena layarnya ada di depan mata setiap saat.
Panduan Hidup di Era Kacamata AI
Kalau teknologi ini mau nggak mau bakal jadi bagian hidup kita (dan kayaknya iya), gue coba rangkum beberapa tips buat survive:
1. Tetapkan “Zona Bebas Kacamata”
Bikin aturan pribadi: di meja makan, di kamar tidur, pas lagi ngobrol serius—kacamata dilepas. Atau setidaknya matikan notifikasi. Ini penting buat jaga momen offline yang bener-bener offline.
2. Belajar Baca Bahasa Tubuh Baru
Kita perlu belajar lagi: kapan seseorang beneran fokus sama kita, dan kapan dia lagi split attention. Mungkin dari gerakan mata, dari jeda respons, dari frekuensi dia minta ulang kalimat.
3. Tegas Sama Diri Sendiri
Ini yang paling susah. Pas notif masuk, refleks pertama pasti pengen lihat. Tahan. Kalau lagi sama orang, prioritasin orangnya. Notif bisa nunggu.
4. Jangan Jadi “That Guy/Girl”
Lo tau kan tipe orang yang pas ngobrol matanya melayang terus? Jangan jadi itu. Kalau nggak bisa fokus, mending bilang: “Maap, gue lagi banyak pikiran, bisa diulang?” Itu lebih sopan daripada pura-pura denger.
5. Lindungi Privasi Lo—dan Orang Lain
Kalau lo pake kacamata di tempat umum, inget: lo punya kamera. Jangan rekam orang tanpa izin. Jangan foto orang yang lagi nggak siap difoto. Jangan jadi creepy.
6. Nikmatin “Momen Buta Informasi”
Sesekali, matiin semua notif. Jalan tanpa input digital. Lihat dunia apa adanya—nggak ada overlay, nggak ada info tambahan, nggak ada translate. Rasain jadi manusia utuh di 2026.
Yang Hilang dan Yang Datang
Mungkin yang bikin gue paling galau adalah: kita kehilangan kemampuan untuk “nggak tahu”.
Dulu, waktu ketemu orang baru, kita bisa ngerasain dia tanpa bias informasi. Sekarang, sebelum ngomong, kacamata udah kasih data: namanya, pekerjaannya, postingan terakhirnya, bahkan mungkin skor kreditnya.
Dulu, waktu jalan di kota asing, kita bisa nyasar dan nemu tempat random yang nggak ada di Google Maps. Sekarang, kacamata kasih rekomendasi terus: “Restoran di depan lu rating 4.8, mampir?”
Dulu, waktu baca buku, kita bisa mikir sendiri. Sekarang, kacamata langsung kasih ringkasan, definisi, dan opini orang lain.
Kita kehilangan ruang untuk interpretasi pribadi. Semuanya dijelasin. Semuanya dioptimasi. Semuanya dikurasi.
Dan di ruang yang “terbantu” terus-terusan, apa kita masih bisa nemu kejutan? Apa kita masih bisa kagum? Apa kita masih bisa “tersesat” dan senang karenanya?
Tapi Mungkin Gue Cuma Orang Tua Kesian
Di sisi lain, gue sadar: mungkin ini cuma gue yang nggak bisa adaptasi.
Anak-anak sekarang—yang lahir 2010-an—akan tumbuh dengan kacamata AI sebagai hal normal. Buat mereka, nggak ada yang aneh dengan layar di depan mata. Nggak ada yang canggung dengan “ngobrol sambil baca notif”. Itu standar baru.
Mereka mungkin akan punya cara sendiri buat navigasi dunia hybrid ini. Mereka mungkin akan punya etiket baru yang kita belum paham. Mereka mungkin akan lebih sehat mentalnya daripada kita yang pindah dari dunia offline ke online ke hybrid.
Gue cuma berharap: semoga mereka nggak kehilangan kemampuan buat benar-benar hadir.
Benar-benar lihat mata lawan bicara—tanpa ada teks yang lewat di antara.
Benar-benar denger cerita—tanpa sambil mikir “ini worth it nggak buat direkam?”
Benar-benar nikmatin momen—tanpa ngecek “apakah momen ini layak di-post?”
Kesimpulan: Antara Canggih dan Canggung
Di 2026, kacamata AI bukan lagi fiksi ilmiah. Dia ada. Dia dipake. Dia mengubah cara kita lihat dunia—secara harfiah.
Dia canggih: ngasih akses informasi tanpa batas, tanpa jeda, tanpa hambatan fisik.
Dia juga canggung: ngaburkan batas antara “hadir” dan “online”, antara “bersama” dan “sendiri”.
Smartphone mungkin belum mati. Tapi dia mulai kehilangan tahtanya sebagai pusat dunia digital kita. Perlahan, pusat itu pindah ke depan mata.
Dan pertanyaannya: kita siap nggak?
Bukan siap secara teknis—itu pasti siap. Tapi siap secara emosional? Siap kehilangan momen offline terakhir? Siap untuk selalu terhubung, bahkan saat lagi sendiri? Siap untuk selalu “on”, bahkan saat lagi istirahat?
Gue nggak punya jawaban.
Yang gue tau: besok, gue akan ketemu temen buat ngopi. Dan gue akan coba—bener-bener coba—buat nggak pake kacamata AI.
Sekali-kali, pengen lihat wajah dia apa adanya. Tanpa overlay. Tanpa notif. Tanpa gangguan.
Mungkin itu bentuk perlawanan kecil. Mungkin itu cuma nostalgia orang tua. Tapi setidaknya, buat satu jam, gue pengen jadi manusia utuh di 2026.
Dan setelah itu… ya silakan deh kacamata nyala lagi. Tapi setidaknya, ada satu momen yang beneran gue punya, bukan buat AI.