close
Facebook內部管理員手冊遭曝光,揭秘刪帖詳細規定
編者按:Facebook最近風波不斷,從去年直播黑人男友遭警察槍殺引發關於直播底線的爭論,到最近泄露的規章內容審核手冊中,相關審核標準之復雜、難以理解,都讓這個社交媒體巨頭遭遇極大的口碑危機。Nick Hopkins在《衛報》整理瞭Facebook關於裸露、暴力以及虐待的相關規定,原題為“Revealed: Facebook's internal rulebook on sex, terrorism and violence”。我們不妨來看看Facebook都是如何解釋他們的種種規定的,再來評價它的道德標準也不遲。
近期,《衛報》在一項調查中,首次曝光瞭Facebook對用戶發佈動態有一些隱秘規定,這一結論激化瞭關於Facebook的角色和道德底線的大爭論。
《衛報》的調查顯示,Facebook大約有100多個內部培訓手冊、電子表格和流程圖,它們深度揭秘瞭Facebook在面對暴力、仇恨言論、恐怖主義、色情、種族主義、自殘行為、假球甚至食人的時候,是如何和諧這些內容的。
這些文件讓我們得以一窺Facebook在歐洲、美國政府重壓下,是如何對網站進行管制的。文件說明瞭Facebook運營之艱難,它必須應對一些全新的挑戰,如“色情復仇”。Facebook的管理員也面臨巨大挑戰,他們的工作量太大瞭,常常隻有10秒的時間對某條內容的去留做決定。
一位消息人士說:“Facebook不能控制其內容,它的規模太大瞭,內容增長太快瞭。”
據說,許多Facebook管理員擔憂於那些互相矛盾、特殊的管理政策。比如涉及到性的內容,相關政策看上去那樣復雜、令人迷惑。
Facebook關於“色情復仇”的政策
有文件顯示:Facebook每周會收到大約6.5百萬個潛在虛假帳戶(FNRP: fake, not real person)舉報。
Facebook的規定如此之多,數千張幻燈片和圖片才能說得清,這些規定讓人們擔憂,批評傢們說Facebook現在是一個發行商瞭,必須盡力消除仇恨、傷害和暴力內容。
然而,這些規定也讓自由言論倡導者擔憂。他們認為,Facebook可能已經成為瞭世界上最大的審查員,該事實敲響瞭言論自由的警鐘。
上述兩種觀點可能都要求Facebook的管理規則更加透明。
音響電容安裝
去年,《衛報》發現瞭一些Facebook重低音一定要裝電容嗎管理員的文件,文件這樣要求他們:
刪除類似“射殺特朗普”的言論,因為特朗普是美國元首,是被保護的。但是如下言論卻是不會被刪除的:“咬住一個婊子的脖子,把所有的力氣都壓在她脖子中間”、“滾去死”,因為這些言論不算是真正的威脅;
場面淒慘的死亡視頻,雖然它們的標簽是“令人不安的”,但是可以不被刪除。因為它們可以提高人們對一些問題的認識,比如精神疾病;
汽車音響後級
一些非性虐待、霸凌兒童的照片可以不刪除,除非有性虐待或慶祝因素;
虐待動物的照片可以分享,隻有那些極度過分的照片才會打上“令人不安”的標簽;
允許分享裸體、正在進行性行為的手工藝術品,但是數字化制作的、展示性行為的視頻/照片不在此列。
允許墮胎視頻的分享,隻要沒有裸露;
允許直播人們的自殘行為,因為Facebook“不想檢查/懲罰處於痛苦中的人“;
擁有超過10萬粉絲即被認為是公眾人物,這也就意味著他們不再享有作為個人的全面保護。
文件允許的其他類型的言論包括:“小女孩要在她爸爸打她之前,在她爸爸面前站直”、“我希望有人能殺瞭你”。這些威脅被認為是普遍的、不可信的。
關於暴力威脅言論的政策
在一份泄露的文件當中,Facebook承認“人們通過網絡語言暴力發泄心情”,他們覺得在網上“這麼做比較安全”。
還有:人們認為自己不會面臨網絡暴力,並且對那些遭受網絡暴力、受到威脅的人們沒有絲毫的同情。因為通過數碼設備的溝通交流完全不能激起類似面對面交流的同情心。
Facebook關於暴力威脅的政策,對號指不會被刪除的言論,叉號指要被刪掉的言論。
“我們認為暴力語言更多的隻是發泄情緒,並不足信,除非某些特定語言讓我們覺得它超越瞭發泄情緒,可能轉變成一場謀殺。,從這一點看,‘我要殺瞭你’和‘滾去死’這種話就是某種不高興、沮喪情緒的發泄。”
該文件還補充道:“人們大多用著那種毫無意義、毫不客氣的方式,來威脅或呼籲暴力,借以表達對某人、某事的鄙視或不同意。”
Facebook承認“並非所有令人不快、令人不安的內容都會違反我們的標準”。
Facebook的全球政策管理負責人Monika Bickert表示,Facebook有將近20億用戶,很難完全達成共識。
Facebook關於暴力威脅的幻燈片,對號指該言論不會被刪除。
她說:“Facebook遍佈全球,是一個多樣化的社交網絡,人們判斷某些內容適合分享的標準不同。無論我們定哪種標準,總會有一些灰色區域存在,比如諷刺和幽默以及不當內容之間的界限有時候就非常模糊,我們很難決定哪種言論應該留下、哪種應該被刪掉。”
“Facebook有責任維護平臺安全,我們絕對有責任繼續貫徹這些方針,這是一個公司的承諾。我們將會繼續投資那些積極保持網站安全的算法,我們也希望人們向我們舉報任何違反我們標準的內容。”
她表示,在某些場合下,冒犯性言論會違反Facebook政策,但在另一些場合則不會。
泄露的Facebook政策還包括:暴力死亡、非性虐待兒童圖片、虐待動物直播等,顯示出該網站是如何試著躲避雷區的。
文件顯示:“場面淒慘的死亡視頻雖然“令人不安的”,但是可以幫助提高認識。就視頻來說,我們認為未成年人需要受到保護,但成年人需要的卻是選擇,因而我們把暴力死亡視頻分類為‘令人不安’的視頻。”
這樣的片段應當是“未成年人不可見”的,而不是被自動刪除,因為“它們可以提高人們對一些問題的認識,比如自殘、精神疾病、戰爭犯罪等”。
關於虐待兒童、動物影像的規定
Facebook遭泄露的文件包括瞭非性虐待兒童的相關政策。
關於非性虐待兒童,Facebook這樣規定:“我們不自動刪除虐待兒童的影像,隻把它們標記為‘令人不安’的。如果影像當中有性虐待或慶祝因素,我們則要刪除它。”
有一張幻燈片說明,Facebook不會自動刪除非性虐待兒童的內容,並且這些內容可以被分享,以便“確認孩童身份,對其進行救助,但是我們會對觀眾進行保護”。即這些非性虐待兒童的內容都會被打上“令人不安”的標簽以示警告。
Facebook證實自己“確實允許某些狀況下的非性虐待兒童影像存在,但目的是為瞭幫助孩子。”
該幻燈片也說明瞭對待虐待動物的政策:“Facebook允許虐待動物影像的存在,是為瞭讓人們警醒,我們為這種內容添加瞭觀眾保護政策,即給它們打上‘令人不安’等標簽。”
Facebook關於虐待動物的規定
“一般情況下,虐待動物的照片可以自由分享,一些極度過分的照片才會打上“令人不安”的標簽。”
動物殘割,包括那些展示酷刑的照片,會被標記為“令人不安的”而不是直接被刪除。管理員也不用刪除人類踢、打動物的那種虐待照片。
Facebook說:“我們允許人們分享虐待動物的圖片,這是為瞭提高人們認識、譴責虐待,但是那些包含瞭慶祝的殘忍圖片還是會被刪除”。
對於具有新聞價值圖片的規定
Facebook在去年刪除瞭那張著名的越南戰爭照片(照片太過壓抑,就不放上來瞭,讀者可以自行搜索“越南戰爭 女童”),原因居然是圖片中的小女孩赤身裸體,這引發瞭強烈的抗議。目前披露的文件顯示,Facebook發佈瞭關於裸露的新準則。
現在,Facebook允許“反戰”原則之下、“具有新聞價值”的裸露,但是還是禁止發佈“大屠殺背景下的兒童裸體照片”
Facebook關於大屠殺相關照片的幻燈片
Facebook告訴《衛報》,目前Facebook正在使用一款軟件攔截某些圖片內容,讓這種圖片完全無法上傳到網站。但是“我們希望人們能夠就全球以及當前問題進行討論,所以某些具有暴力元素的圖片在一些時候是非常有必要的”。
美國和歐洲的批評傢們要求Facebook應當和廣播、出版商一樣被管理。
但是Bickert說Facebook是“一個新型公司,並非傳統的技術公司,也不是傳統的媒體公司。Facebook開發技術,也認為自己有責任對如何使用技術負責。我們並不發佈新聞,隻是新聞發佈的平臺。”
5月1日,一位英國議員發表報告指出:“這個全球最大、最富有的社交媒體公司應當感到恥辱,它完全沒有采取足夠的措施處理非法、危險內容,也沒能設立合適的標準,不能保護用戶的安全”。
內容審核專傢Sarah T Roberts表示:“小型網絡社區的原則和價值設定是一回事,但當一個社區已經擁有瞭世界很大一部分人口的時候,這時候你說‘分享你自己’,社區就會完全混亂。
“然後當一個社區通過‘分享’盈利的時候,該社區可能已經進入瞭災難模式。”
Facebook一直努力評估暴力圖像的新聞/認識價值。盡管該公司最近因為沒有刪除Robert Godwin被謀殺的視頻、沒有刪除泰國一位父親殺死自己孩子的視頻而飽受批評,但該平臺也積極傳播警方濫殺和其他政府濫用職權的視頻,發揮瞭重要作用。
比如,2016年,Facebook刪除瞭一個視頻,內容是警察在沒有明顯原因的情況下對黑人Philando Castile連開四槍殺死他的視頻,隨後Facebook恢復瞭視頻,並聲稱這是一次“誤刪”。該視頻引發美國民眾的強烈抗議。
編譯部出品。編輯:郝鵬程
編者按:Facebook最近風波不斷,從去年直播黑人男友遭警察槍殺引發關於直播底線的爭論,到最近泄露的規章內容審核手冊中,相關審核標準之復雜、難以理解,都讓這個社交媒體巨頭遭遇極大的口碑危機。Nick Hopkins在《衛報》整理瞭Facebook關於裸露、暴力以及虐待的相關規定,原題為“Revealed: Facebook's internal rulebook on sex, terrorism and violence”。我們不妨來看看Facebook都是如何解釋他們的種種規定的,再來評價它的道德標準也不遲。
近期,《衛報》在一項調查中,首次曝光瞭Facebook對用戶發佈動態有一些隱秘規定,這一結論激化瞭關於Facebook的角色和道德底線的大爭論。
《衛報》的調查顯示,Facebook大約有100多個內部培訓手冊、電子表格和流程圖,它們深度揭秘瞭Facebook在面對暴力、仇恨言論、恐怖主義、色情、種族主義、自殘行為、假球甚至食人的時候,是如何和諧這些內容的。
這些文件讓我們得以一窺Facebook在歐洲、美國政府重壓下,是如何對網站進行管制的。文件說明瞭Facebook運營之艱難,它必須應對一些全新的挑戰,如“色情復仇”。Facebook的管理員也面臨巨大挑戰,他們的工作量太大瞭,常常隻有10秒的時間對某條內容的去留做決定。
一位消息人士說:“Facebook不能控制其內容,它的規模太大瞭,內容增長太快瞭。”
據說,許多Facebook管理員擔憂於那些互相矛盾、特殊的管理政策。比如涉及到性的內容,相關政策看上去那樣復雜、令人迷惑。
Facebook關於“色情復仇”的政策
有文件顯示:Facebook每周會收到大約6.5百萬個潛在虛假帳戶(FNRP: fake, not real person)舉報。
Facebook的規定如此之多,數千張幻燈片和圖片才能說得清,這些規定讓人們擔憂,批評傢們說Facebook現在是一個發行商瞭,必須盡力消除仇恨、傷害和暴力內容。
然而,這些規定也讓自由言論倡導者擔憂。他們認為,Facebook可能已經成為瞭世界上最大的審查員,該事實敲響瞭言論自由的警鐘。
上述兩種觀點可能都要求Facebook的管理規則更加透明。
音響電容安裝
去年,《衛報》發現瞭一些Facebook重低音一定要裝電容嗎管理員的文件,文件這樣要求他們:
刪除類似“射殺特朗普”的言論,因為特朗普是美國元首,是被保護的。但是如下言論卻是不會被刪除的:“咬住一個婊子的脖子,把所有的力氣都壓在她脖子中間”、“滾去死”,因為這些言論不算是真正的威脅;
場面淒慘的死亡視頻,雖然它們的標簽是“令人不安的”,但是可以不被刪除。因為它們可以提高人們對一些問題的認識,比如精神疾病;
汽車音響後級
一些非性虐待、霸凌兒童的照片可以不刪除,除非有性虐待或慶祝因素;
虐待動物的照片可以分享,隻有那些極度過分的照片才會打上“令人不安”的標簽;
允許分享裸體、正在進行性行為的手工藝術品,但是數字化制作的、展示性行為的視頻/照片不在此列。
允許墮胎視頻的分享,隻要沒有裸露;
允許直播人們的自殘行為,因為Facebook“不想檢查/懲罰處於痛苦中的人“;
擁有超過10萬粉絲即被認為是公眾人物,這也就意味著他們不再享有作為個人的全面保護。
文件允許的其他類型的言論包括:“小女孩要在她爸爸打她之前,在她爸爸面前站直”、“我希望有人能殺瞭你”。這些威脅被認為是普遍的、不可信的。
關於暴力威脅言論的政策
在一份泄露的文件當中,Facebook承認“人們通過網絡語言暴力發泄心情”,他們覺得在網上“這麼做比較安全”。
還有:人們認為自己不會面臨網絡暴力,並且對那些遭受網絡暴力、受到威脅的人們沒有絲毫的同情。因為通過數碼設備的溝通交流完全不能激起類似面對面交流的同情心。
Facebook關於暴力威脅的政策,對號指不會被刪除的言論,叉號指要被刪掉的言論。
“我們認為暴力語言更多的隻是發泄情緒,並不足信,除非某些特定語言讓我們覺得它超越瞭發泄情緒,可能轉變成一場謀殺。,從這一點看,‘我要殺瞭你’和‘滾去死’這種話就是某種不高興、沮喪情緒的發泄。”
該文件還補充道:“人們大多用著那種毫無意義、毫不客氣的方式,來威脅或呼籲暴力,借以表達對某人、某事的鄙視或不同意。”
Facebook承認“並非所有令人不快、令人不安的內容都會違反我們的標準”。
Facebook的全球政策管理負責人Monika Bickert表示,Facebook有將近20億用戶,很難完全達成共識。
Facebook關於暴力威脅的幻燈片,對號指該言論不會被刪除。
她說:“Facebook遍佈全球,是一個多樣化的社交網絡,人們判斷某些內容適合分享的標準不同。無論我們定哪種標準,總會有一些灰色區域存在,比如諷刺和幽默以及不當內容之間的界限有時候就非常模糊,我們很難決定哪種言論應該留下、哪種應該被刪掉。”
“Facebook有責任維護平臺安全,我們絕對有責任繼續貫徹這些方針,這是一個公司的承諾。我們將會繼續投資那些積極保持網站安全的算法,我們也希望人們向我們舉報任何違反我們標準的內容。”
她表示,在某些場合下,冒犯性言論會違反Facebook政策,但在另一些場合則不會。
泄露的Facebook政策還包括:暴力死亡、非性虐待兒童圖片、虐待動物直播等,顯示出該網站是如何試著躲避雷區的。
文件顯示:“場面淒慘的死亡視頻雖然“令人不安的”,但是可以幫助提高認識。就視頻來說,我們認為未成年人需要受到保護,但成年人需要的卻是選擇,因而我們把暴力死亡視頻分類為‘令人不安’的視頻。”
這樣的片段應當是“未成年人不可見”的,而不是被自動刪除,因為“它們可以提高人們對一些問題的認識,比如自殘、精神疾病、戰爭犯罪等”。
關於虐待兒童、動物影像的規定
Facebook遭泄露的文件包括瞭非性虐待兒童的相關政策。
關於非性虐待兒童,Facebook這樣規定:“我們不自動刪除虐待兒童的影像,隻把它們標記為‘令人不安’的。如果影像當中有性虐待或慶祝因素,我們則要刪除它。”
有一張幻燈片說明,Facebook不會自動刪除非性虐待兒童的內容,並且這些內容可以被分享,以便“確認孩童身份,對其進行救助,但是我們會對觀眾進行保護”。即這些非性虐待兒童的內容都會被打上“令人不安”的標簽以示警告。
Facebook證實自己“確實允許某些狀況下的非性虐待兒童影像存在,但目的是為瞭幫助孩子。”
該幻燈片也說明瞭對待虐待動物的政策:“Facebook允許虐待動物影像的存在,是為瞭讓人們警醒,我們為這種內容添加瞭觀眾保護政策,即給它們打上‘令人不安’等標簽。”
Facebook關於虐待動物的規定
“一般情況下,虐待動物的照片可以自由分享,一些極度過分的照片才會打上“令人不安”的標簽。”
動物殘割,包括那些展示酷刑的照片,會被標記為“令人不安的”而不是直接被刪除。管理員也不用刪除人類踢、打動物的那種虐待照片。
Facebook說:“我們允許人們分享虐待動物的圖片,這是為瞭提高人們認識、譴責虐待,但是那些包含瞭慶祝的殘忍圖片還是會被刪除”。
對於具有新聞價值圖片的規定
Facebook在去年刪除瞭那張著名的越南戰爭照片(照片太過壓抑,就不放上來瞭,讀者可以自行搜索“越南戰爭 女童”),原因居然是圖片中的小女孩赤身裸體,這引發瞭強烈的抗議。目前披露的文件顯示,Facebook發佈瞭關於裸露的新準則。
現在,Facebook允許“反戰”原則之下、“具有新聞價值”的裸露,但是還是禁止發佈“大屠殺背景下的兒童裸體照片”
Facebook關於大屠殺相關照片的幻燈片
Facebook告訴《衛報》,目前Facebook正在使用一款軟件攔截某些圖片內容,讓這種圖片完全無法上傳到網站。但是“我們希望人們能夠就全球以及當前問題進行討論,所以某些具有暴力元素的圖片在一些時候是非常有必要的”。
美國和歐洲的批評傢們要求Facebook應當和廣播、出版商一樣被管理。
但是Bickert說Facebook是“一個新型公司,並非傳統的技術公司,也不是傳統的媒體公司。Facebook開發技術,也認為自己有責任對如何使用技術負責。我們並不發佈新聞,隻是新聞發佈的平臺。”
5月1日,一位英國議員發表報告指出:“這個全球最大、最富有的社交媒體公司應當感到恥辱,它完全沒有采取足夠的措施處理非法、危險內容,也沒能設立合適的標準,不能保護用戶的安全”。
內容審核專傢Sarah T Roberts表示:“小型網絡社區的原則和價值設定是一回事,但當一個社區已經擁有瞭世界很大一部分人口的時候,這時候你說‘分享你自己’,社區就會完全混亂。
“然後當一個社區通過‘分享’盈利的時候,該社區可能已經進入瞭災難模式。”
Facebook一直努力評估暴力圖像的新聞/認識價值。盡管該公司最近因為沒有刪除Robert Godwin被謀殺的視頻、沒有刪除泰國一位父親殺死自己孩子的視頻而飽受批評,但該平臺也積極傳播警方濫殺和其他政府濫用職權的視頻,發揮瞭重要作用。
比如,2016年,Facebook刪除瞭一個視頻,內容是警察在沒有明顯原因的情況下對黑人Philando Castile連開四槍殺死他的視頻,隨後Facebook恢復瞭視頻,並聲稱這是一次“誤刪”。該視頻引發美國民眾的強烈抗議。
編譯部出品。編輯:郝鵬程
AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋
AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots
全站熱搜
留言列表