Ilustrasi Twitter. (Foto: ZDNet.com)

ZNEWS.ID, JAKARTA – Twitter pada Rabu waktu setempat (1/9) selama tujuh hari ini tengah menguji coba fitur mode keamanan (safety mode) yang dapat memblokir sementara akun yang berisi konten kasar, seperti komentar penghinaan atau kebencian.

“Saat fitur diaktifkan di menu ‘Pengaturan’ Anda, sistem kami akan menilai kemungkinan interaksi negatif dengan mempertimbangkan konten Tweet dan hubungan antara pembuat Tweet dan penjawab,” kata Manajer Senior Produk Twitter, Jarrod Doherty melalui sebuah tulisan yang diunggah di blog Twitter, dikutip Kamis.

Akun yang terdeteksi berbahaya oleh sistem akan diblokir otomatis dan untuk sementara waktu mereka tidak dapat mengikuti akun, melihat Tweet, atau mengirim pesan melalui Direct Message kepada pengguna yang dijadikan sasaran.

Kendati demikian, akun yang sering berinteraksi dengan pengguna tidak akan diblokir otomatis karena sistem teknologi memperhitungkan hubungan yang ada.

Pengguna masih dapat menemukan informasi tentang Tweet yang ditandai melalui mode keamanan dan melihat detail akun yang diblokir kapan saja.

Ketika fitur tersebut berakhir dalam tujuh hari, pengguna tetap akan menerima pemberitahuan dari sistem Twitter.

“Kami juga akan secara teratur memantau keakuratan sistem mode keamanan untuk meningkatkan kemampuan deteksi kami,” kata Doherty.

BACA JUGA  5 Kiat Kurangi Perundungan di Twitter

LEAVE A REPLY