- Meta ngambil data tanpa ijin, meskipun ada aturan Robots.txt.
- Meta gunakan dua robot, yaitu Meta-ExternalFetcher dan Meta-ExternalAgent, untuk ngambil data.
- Meta ngakuin robot mereka bisa ngelewatin aturan Robots.txt untuk ngambil data dan link web.
pibitek.biz -Meta, perusahaan teknologi yang sudah terkenal dengan ambisinya membangun dunia Metaverse, ternyata juga punya "kegemaran" yang lain, yaitu ngambil data dari situs web tanpa ijin. Meta punya tim khusus yang tugasnya adalah ngerayap ke berbagai situs web dan ngambil data apa saja yang mereka inginkan, meskipun pemilik situs web sudah memasang pagar pembatas, yaitu Robots. txt. Robots. txt adalah sebuah aturan yang sudah ada sejak tahun 90an dan dianggap sebagai standar yang harus dipatuhi oleh semua robot web.
2 – Pemerintah AS Perkuat Keamanan Digital dengan RPKI dan Bahasa Aman 2 – Pemerintah AS Perkuat Keamanan Digital dengan RPKI dan Bahasa Aman
3 – AI Ini Bantu Manusia Temukan Jati Diri 3 – AI Ini Bantu Manusia Temukan Jati Diri
Aturan ini dirancang untuk melindungi pemilik situs web agar data-data mereka tidak diakses tanpa ijin. Aturan ini berfungsi seperti pagar yang melarang robot-robot web untuk masuk ke area terlarang di sebuah situs web. Namun, Meta kayaknya enggak peduli dengan aturan ini. Mereka punya cara khusus untuk nge-skip aturan tersebut dan masuk ke area yang seharusnya dijaga ketat. Meta ternyata bukan satu-satunya perusahaan yang nekat ngelakuin hal ini. Perusahaan lain seperti Perplexity, OpenAI, dan Anthropic AI juga ketahuan ngelakuin hal yang sama.
Perusahaan-perusahaan ini kayaknya punya pemikiran bahwa data di internet adalah milik mereka dan bebas diakses tanpa ijin. Mereka seakan-akan menganggap bahwa internet adalah "taman bermain" pribadi mereka yang bisa mereka eksploitasi sesuka hati. Mereka tidak peduli dengan hak privasi pemilik situs web dan menganggap bahwa mereka berhak untuk mengakses data apa pun yang mereka inginkan. Meta malah terang-terangan mengaku bahwa mereka punya dua robot web yang bisa ngelewatin aturan Robots. txt. Robot pertama, yang bernama Meta-ExternalFetcher, tugasnya ngambil data dari situs web untuk melatih model AI milik Meta, Llama.
Robot kedua, yang bernama Meta-ExternalAgent, tugasnya ngambil link web. Meta ngakuin bahwa robot kedua ini digunakan untuk Meta AI Assistant. Tentu saja, kita bertanya-tanya, apa saja yang mereka lakukan dengan link web yang mereka kumpulkan? Apa tujuan mereka mengumpulkan link web tersebut? Apakah mereka akan menggunakannya untuk mengendalikan informasi di internet? Meta ngakuin bahwa robot mereka memang bisa ngelewatin aturan Robots. txt. Menurut Meta, mereka melakukan hal ini untuk memberikan "kebebasan" kepada pemilik situs web untuk menentukan siapa yang boleh ngambil data dari situs mereka.