
Setiap platform memiliki standar komunitas, atau sering disebut “community guideline”, yang berlaku universal. Artinya, standar komunitas tersebut sama di setiap negara di mana mereka beroperasi.
Pada praktiknya, tindak lanjut konten yang dilaporkan adalah hal yang cukup rumit karena platform tidak bisa hanya mengacu pada standar komunitas, namun juga undang-undang yang berlaku di suatu negara.
Sub Koordinator Penyusunan Rancangan Peraturan, Direktorat Jenderal Aplikasi Informatika, Kementerian Kominfo, Denden Imadudin, menilai bahwa standar komunitas yang berlaku pada suatu platform media sosial mungkin berbeda dengan undang-undang yang berlaku pada suatu negara.
“Standar komunitas tetap menjadi acuan platform, namun mereka juga menjadikan hukum lokal sebagai acuan,” kata Denden.
Perbedaan aturan seperti itu bisa jadi menimbulkan polemik ketika menangani konten negatif, misalnya negara melihat konten tersebut perlu dihapus karena melanggar aturan, namun platform menilai konten itu tidak melanggar standar komunitas mereka.
Kesulitan soal moderasi konten ditambah dengan algoritma platform media sosial yang cenderung merekomendasikan sesuatu yang sedang populer atau viral, yang mungkin saja tergolong konten yang berbahaya.
Dalam hal ini, Faiz menilai platform tidak bisa mengandalkan algoritma saja dalam mendeteksi konten, namun juga harus memiliki moderator manusia untuk mengajari sistem perihal konten negatif.
Apalagi konten yang dianalisis juga perlu memperhatikan konteks lokal sebelum memutuskan apakah ia melanggar aturan atau tidak.
Moderasi Konten
Setiap pengguna media sosial bisa mengakses fitur pelaporan konten. Ketika mendapat laporan, platform media sosial akan melihat apakah konten tersebut melanggar standar komunitas mereka, kemudian menilai apakah konten itu melanggar undang-undang yang berlaku di sebuah negara.




























