Call +84.99.6656.999 for ADS 01

Những đoạn deepfake gây ám ảnh trên TikTok

03/06/2023 (09:25:52)

Xu hướng sử dụng trí tuệ nhân tạo để làm nội dung TikTok về nạn nhân của các vụ thảm sát, đặc biệt là trẻ em, bị nhiều người phản đối.

Chủ tài khoản khẳng định rằng video không sử dụng ảnh thật của người quá cố vì giữ sự tôn trọng đối với gia đình họ. Ảnh: truestorynow.

“Năm tôi tròn 21 tháng tuổi, bà nội đã nhốt tôi trong lò nướng nóng hơn 110 độ C” là lời bộc bạch kinh hoàng của cô bé Rody Marie Floyd về cái chết của mình trong một video TikTok. Cô bé có ngoại hình đáng yêu, đôi mắt xanh và một giọng nói rất trẻ con.

Trong video, Floyd nói rằng cô bé sống với mẹ và bà ở bang Mississippi, Mỹ. Nhưng vào một ngày nọ, khi cô bé đói bụng và khóc nháo liên tục, người bà đã bực bội đến mức đặt cô vào lò nướng, giết chết cô bé. “Hãy theo dõi tài khoản của em để nhiều người được biết về sự thật này”, Floyd nói trong video TikTok.

Câu like, câu view bằng cách gây kích động tâm lý người xem

Hóa ra cô bé chỉ là một sản phẩm của AI được đăng tải trên tài khoản @truestorynow với gần 50.000 người theo dõi. Tài khoản này chuyên đăng những nội dung về những nạn nhân bị sát hại có thật trong thực tế và tiết lộ câu chuyện của họ. Do đó, câu chuyện Rody Marie Floyd kể trong video lẫn nhiều chi tiết thật - giả.

deepfake kinh hoang TikTok anh 1deepfake kinh hoang TikTok anh 2

Đoạn video do deepfake tạo ra của cô bé Royalty Marie.

Tên thật của cô bé bị giết trong câu chuyện là Royalty Marie, được phát hiện đã chết cháy trong lò nướng ở nhà bà ngoại bang Mississippi vào năm 2018. Bà ngoại của cô bé là Carolyn Jones (48 tuổi) đã bị kết tội mưu sát vào đầu năm 2023. Đoạn video có 2 chi tiết khác với sự thật là cô bé Royalty Marie mất khi chỉ mới 20 tháng tuổi và là người da đen, không phải 21 tháng tuổi và da trắng như video.

Hiện tài khoản đăng tải video về Royalty Marie Floyd đã bị TikTok khóa vì “vi phạm quy định liên quan đến hình ảnh giả lập gây ảnh hưởng đến người khác”.

Tuy nhiên, đây cũng chỉ là một trong rất nhiều video AI làm về nạn nhân của các cuộc thảm án có thật ngoài đời. Đây là một xu hướng nội dung mới trên TikTok, sử dụng trí tuệ nhân tạo để làm những câu chuyện về người quá cố, đặc biệt là trẻ em.

Thu hút hàng triệu lượt xem, những video này luôn xuất hiện một nhân vật trực tiếp kể lại những chi tiết cụ thể về án mạng của họ. Thậm chí, nhiều video còn không có nhãn dán cảnh báo nội dung nhạy cảm cho người dùng trước khi xem.

“Những video này rất kỳ lạ và đáng sợ. Chúng được thiết kế để gây kích động tâm lý vì đó là cách tốt nhất để nhận thêm lượt thích và lượt nhấn vào. Việc người xem cảm thấy không thoải mái khi xem chính là mục đích chính của video này”, Giáo sư ngành tư pháp hình sự Paul Bleakley tại Đại học New Haven nhận định.

Tái hiện những vụ án rúng động thế giới

Một số chủ tài khoản khẳng định rằng video của họ không sử dụng ảnh thật của người quá cố vì giữ sự tôn trọng đối với gia đình họ. Người dùng Nostalgia Narratives là một ví dụ điển hình. Tài khoản này đã thu về 175.000 người theo dõi bằng những câu chuyện về nạn nhân các cuộc án mạng làm từ AI.

Nostalgia Narratives sử dụng công nghệ mới để tái hiện những vụ thảm sát trẻ em tàn bạo như vụ án về cô bé 6 tuổi Elisa Izquierdo bị mẹ ruột hành hạ và đánh đập đến chết hay vụ án bé gái Star Hobson 16 tháng tuổi bị mẹ ruột và người tình đồng giới giết hại dã man tại chính căn nhà của mình.

deepfake kinh hoang TikTok anh 3

Deepfake có thể tạo ra hàng loạt khuôn mặt khác nhau và không có thật. Ảnh: Technology Review.

Thậm chí, tài khoản này còn tái tạo hình ảnh về những cái chết làm rúng động thế giới như vụ ám sát cố Tổng thống Mỹ John F. Kennedy hay án mạng cảnh sát giết người đàn ông Mỹ gốc Phi George Floyd năm 2020.

Điều đáng nói là ngoại hình của các nạn nhân trong video đã được thay đổi để lách quy chuẩn cộng đồng của TikTok. Cụ thể, nền tảng mạng xã hội cấm các nội dung deepfake, giả mạo các cá nhân cho mục đích trục lợi.

Khoét sâu nỗi đau của những người còn lại

Theo Rolling Stones, sự xuất hiện ngày càng nhiều của các video về các vụ án mạng trên TikTok làm dấy lên câu hỏi mới về vấn đề cổ xúy phạm tội và đạo đức của các nội dung được chia sẻ trên nền tảng số. Chuyên gia cho rằng việc lan truyền những câu chuyện man rợ có thật và biến chúng thành những nội dung giải trí sẽ gợi lại cảm giác đau đớn của những người thân còn sống.

Lo ngại này càng lớn hơn đối với những video có nội dung tương tự cô bé Royalty Marie Floyd. Những video này kể lại câu chuyện của các nạn nhân theo góc nhìn thứ nhất, sử dụng tên thật của họ mà không có sự cho phép của gia đình.

“Chính điều này sẽ làm đau khổ những người bị hại hoặc có liên quan trong các câu chuyện. Hãy thử tưởng tượng mình là bố mẹ hoặc người thân của các trẻ em xuất hiện trong những video này. Đột nhiên bạn mình thấy đứa con quá cố của mình xuất hiện do AI tạo ra và nghe nó nói về cụ thể những chuyện đã xảy ra với nó”, Giáo sư Bleakley nói.

Ngoài ra, nhiều vấn đề pháp lý cũng sẽ phát sinh khi các video deepfake xuất hiện. Hiện vẫn chưa có đạo luật nào quy định hình ảnh, video deepfake không có sự đồng ý là phạm pháp. Nhưng bang Virginia và California đã tuyên bố chặn nội dung đồi trụy bằng deepfake.

Giáo sư Bleakley cho rằng rất có thể gia đình nạn nhân sẽ truy tố trách nhiệm pháp lý với chủ nhân của những video này, đặc biệt là khi chúng được sử dụng cho mục đích thương mại. “Đây là một vùng xám rất khó giải quyết”, Bleakley nói.

Nhân loại sẽ đối đầu với trí tuệ nhân tạo như thế nào

Trong cuốn sách "Framers - Nhân loại đối đầu nhân tạo", các tác giả nhận định con người vẫn có lợi thế trong thời đại công nghệ.

Thúy Liên

Theo: ZINGNEWS.VN


Khoa học Công nghệ (Tin trước)


Cryptocurrency USDT-BTC on BITTREX

Last
Bid
Ask
High
Low
Vol. BTC
Vol. USDT
Open Buy
Open Sell
Call +84.99.6656.999 for ADS 05