目錄

數量不斷增加技術更加複雜 人工智能色情圖像難辨真偽

【本報侯巴特訊】上個月,一名塔州男子因上傳和下載人工智能生成的虐待兒童資料而被判入獄兩年,這也被認為是該州首例此類案件。

澳洲反兒童剝削中心(ACCCE)偵探警司雷納說,現在可以在線上存取並使用人工智能進行創建和修改的工具正在變得越來越多,可以在幾分鐘內獲得想要的結果,也越來越難甄別,雖然一些主流影像產生器有保護功能,可阻止產生敏感或有害影像,不過並非所有人工智能工具都是如此。

2022 年,雷納首次收到有關人工智能工具產生的兒童剝削材料在網路上流傳的報告。在12個月的時間裡,ACCCE已經收到40,232份有關兒童性剝削的報告,在上一財年對186 名罪犯提出了925 起與兒童剝削相關的犯罪指控。

雷納說,報告數量一直在穩定增加,去年我們收到了近49,500 份報告,這對我們乃至全世界的執法部門來說都非常讓人擔憂。

現在,一個專業受害者識別小組正致力於識別照片真偽,這是非常艱巨的任務,而且隨著人工智能生成圖像質量的提高,變得更加困難。

雷納說,我們擔心的是,如果在審查材料時無法很快判斷是真實的還是人工智能生成的,就會佔用救助真實受害者的時間。

塔州兒童和青少年事務專員麥克萊恩說,所有虐待兒童的內容,無論所描繪的兒童是真實的還是人工智能生成的,都是有害的和完全不可接受的,技術發展的速度意味著這是一場維護法律和保護弱勢群體與利用技術實施傷害之間的競賽。

雷納說,按照法律定義,無論是否是真實的兒童,都可能被指控犯有虐待兒童罪。

WeProtect全球聯盟是一個由100多個政府、70 家公司和數十個倡導團體組成的聯盟,試圖杜絕製作和分享的線上兒童剝削材料。

該組織的政策、宣傳和研究負責人欣戈拉尼說,施虐者正在使用新工具來勒索年輕人,可以對社交媒體網站上一張相當無害的照片進行修改,然後用它作為威脅兒童的工具,造成了極其負面的影響,已經導致少數年輕人自殺。人工智能可以根據孩子的具體情況在幾秒內生成針對性對話,讓施虐者能夠進行大規模施虐,

不過,雷納表示,人工智能也可以為警方提供幫助,警方正致力開發相應人工智能工具,減少工作量。(子力)

分享 / Share :

Breaking News

Related news

Enable Notifications OK No thanks