Thứ Ba, 14 tháng 1, 2025

Chính quyền nước Cali quá vô dụng trong việc phòng chống thảm họa Cháy 2025

So sánh vụ cháy rừng ở Los Angeles với vụ cháy máy bay của JAL thì mới thấy chánh quyền nước Cali thật là quá vô dụng!

Trích trên Diễn Đàn Trái Chiều (Vũ Linh - người nước Mỹ) viết:

[trích]

TIN CHÁY RỪNG LOS ANGELES

Cali, vùng Pacific Palisades, phía đông-bắc Los Angeles bị cháy rừng lớn, bao phủ một vùng lớn bằng 2.000 sân đá banh. Ngoài ra, còn 4 đám cháy khác gần đó. Có gần 100.000 người đã bị di tản, từ 10.000 tới 28.000 căn nhà và công ốc đã bị cháy rụi, một số không nhỏ là dinh đại gia đắt tiền khu Malibu là khu sang của những tài tử Hồ Ly Vọng. Hơn 3 triệu dân trong vùng đã bị mất điện. Ít nhất đã có 24 người thiệt mạng. Tổn thất được ước đoán sẽ trên 150 tỷ đô. Tiền bảo phí nhà sang năm sẽ leo thang mệt nghỉ. Bộ Quốc Phòng đã phải tăng cường 10 trực thăng quân sự và 8 máy bay C-130 tới giúp dập lửa và di tản dân. Hàng ngàn Vệ Binh Quốc Gia và cả quân cảnh của nước Cali cũng đã được thống đốc Newsom huy động tới tiếp. 

Đây là vụ cháy rừng lớn nhất Nam Cali từ mấy chục năm qua. Cho tới chiều thứ sáu, Sở Dập Hỏa cho biết đã kềm chế được... 8% (!) các vụ cháy, sau gần 4 ngày.

Nhiều tin quái lạ khác:

- Ít lâu trước cháy rừng, bà thị trưởng da đen của Los Angeles, Karen Bass, đã cắt giảm ngân sách của Sở Dập Hỏa Los tới trên 17 triệu Biden tệ, bất chấp phản đối của bà giám đốc Sở Dập Hỏa Los Angeles, là bà đồng tính Kristi Crowley, được bổ nhiệm theo đúng tiêu chuẩn DEI. Theo bà Crowley, cắt ngân sách đã đưa đến tình trạng thiếu nhân viên, thiếu xe, thiếu dụng cụ,... Thật ra, bà Crowley phóng đại để chạy tội. Vấn đề là một số tiền quá lớn đã được dành cho các mục tiêu DEI, như huấn luyện nhân viên về chính sách DEI, tuyển nhân viên và thăng thưởng theo nguyên tắc DEI, lại còn tặng tiền cho nhiều tổ chức đồng tính, tổ chức dân vô gia cư,... Không rõ số tiền này được chuyển đi đâu. Rất có thể để... nuôi di dân lậu.

- Chuyện lớn hơn là chính thống đốc Newsom, 6 tháng trước đây, đã cắt ngân sách Sở Dập Hỏa Cali tới hơn 101 triệu đô.


- Cháy rừng bắt đầu trưa thứ Ba, tới khuya, 3g sáng, xe dập hỏa ngưng làm việc vì... hết nước! Nhiều ống nước chữa cháy trong khu, khi mở ra, không có nước. Bị chỉ trích, thống đốc Cali Gavin Newsom biện bạch rằng: Cali có dự trữ nước cho 40 triệu dân trong một năm. Thống đốc 'quên' không nói rõ đó là dự trữ nước uống, không phải dự trữ nước chữa cháy rừng, trong khi Cali nổi tiếng về cháy rừng, không năm nào không bị đại nạn này.

- Thành phố và sở Giao Thông hoàn toàn vô tài bất cán, kêu gọi cả trăm ngàn dân di tản mà không có kế hoạch trước. Cả chục ngàn xe chạy trốn nhưng bị kẹt đèn đỏ bình thường, gây nên kẹt xe khổng lồ. Không có bóng dáng một cảnh sát lưu thông nào. Dân thấy đám lửa gần tới hoảng hốt bỏ xe giữa đường để chạy bộ. Cả chục ngàn xe bị vứt bỏ ngổn ngang, xe dập hỏa không chạy tới chỗ cháy được.

Trưa ngày Thứ Năm 9/1, Sở Dập Hỏa Los Angeles gửi tin nhắn cho tất cả trên 10 triệu cư dân quận Los Angeles tới tuốt Long Beach phía nam và Chino Hill phía đông, phải di tản. Một chục triệu người di tản? Đi đâu? Nhưng ít lâu sau đó, khám phá ra gửi tin nhắn sai, đã gửi tin nhắn mới hủy bỏ lệnh di tản toàn quận, chỉ di tản thêm vài khu quanh những đám cháy.

Không nước, không tiền, xe dập lửa không vào chỗ cháy được, báo động sảng bắt 10 triệu người đi đâu??? Cách 'làm việc' của bà Bass và ông Newsom thấy sốc thật, nhưng không đáng ngạc nhiên khi ta biết các quan chức đảng Dân Chủ chỉ chằm hăm lo chuyện DEI thôi, ngoài ra chẳng có khả năng làm gì khác.

[/trích]



Trung Cộng tuyên bố: Số ca cúm vì virus HMPV đã giảm

Báo Nikkei: Rate of flu-like HMPV infections is declining, Chinese official says - Nikkei Asia 

Trung Cộng tuyên bố: Số ca cúm vì virus HMPV đã giảm = Tin hay không thì tùy mỗi người.

Cuối năm 2019, Trung Cộng cũng nói cúm Vũ Hán bởi vi khuẩn Trung Cộng (COVID) không có gì nghiêm trọng cả.

Ý kiến cá nhân tôi, mọi người nên tiếp tục duy trì việc ĐEO KHẨU TRANG và XỊT CỒN DIỆT KHUẨN 




BẮC KINH (AP) -- Tỷ lệ nhiễm trùng do virus hợp bào hô hấp ở người (HMPV) giống cúm ở miền bắc Trung Quốc đang giảm, một viên chức y tế cho biết hôm Chủ Nhật, trong bối cảnh một số lo ngại quốc tế về khả năng xảy ra đại dịch.

BEIJING (AP) -- The rate of infections with the flu-like human metapneumovirus (HMPV) in northern China is declining, a health official said Sunday, amid some international concern over a potential pandemic.

HMPV, cùng họ với virus hợp bào hô hấp, gây ra các triệu chứng giống cúm hoặc cảm lạnh bao gồm sốt, ho và nghẹt mũi. Các triệu chứng thường tự khỏi, mặc dù chúng có thể gây nhiễm trùng đường hô hấp dưới ở trẻ em, người lớn tuổi và những người bị suy giảm miễn dịch.

HMPV, which belongs to the same family as the respiratory syncytial virus, causes flu or cold-like symptoms including fever, cough and nasal congestion. The symptoms often clear up by themselves, though they can cause lower respiratory tract infections among children, older adults and those immunocompromised.

"Virus hợp bào hô hấp ở người không phải là loại virus mới và đã tồn tại ở con người trong ít nhất vài thập kỷ", Wang Liping, một nhà nghiên cứu tại Trung tâm Kiểm soát và Phòng ngừa Dịch bệnh Trung Quốc, cho biết trong cuộc họp báo của Ủy ban Y tế Quốc gia Trung Quốc.

"The human metapneumovirus is not a new virus, and has been with humans for at least several decades," said Wang Liping, a researcher at the Chinese Center for Disease Control and Prevention, during a press briefing by China's National Health Commission.

Wang nói thêm rằng sự gia tăng trong những năm gần đây về số ca mắc loại virus này, lần đầu tiên được phát hiện ở Hà Lan vào năm 2001, là do các phương pháp phát hiện tốt hơn.

Wang added that the increase in recent years in the number of cases of the virus, first detected in the Netherlands in 2001, is due to better detection methods.

"Hiện tại, tỷ lệ các ca dương tính trong phát hiện metapneumovirus ở người đang dao động, tỷ lệ các ca dương tính ở các tỉnh phía bắc đang giảm và tỷ lệ các ca dương tính ở những bệnh nhân từ 14 tuổi trở xuống đã bắt đầu giảm", bà cho biết.

"At present, the rate of positive cases in human metapneumovirus detection is fluctuating, and the rate of positive cases in northern provinces is declining, and the rate of positive cases among patients aged 14 and below has started to decline," she said.

Những lo ngại đã xuất hiện trong những ngày gần đây về sự gia tăng các ca nhiễm HMPV ở miền bắc Trung Quốc sau khi hình ảnh các bệnh viện tràn ngập bệnh nhân đeo khẩu trang được lan truyền trực tuyến. Tổ chức Y tế Thế giới cho biết họ chưa nhận được báo cáo về các đợt bùng phát bất thường ở Trung Quốc hoặc nơi khác.

Concerns surfaced in recent days over a surge in HMPV infections in northern China after images circulated online of hospitals overrun with masked patients. The World Health Organization said it has not received reports of unusual outbreaks in China or elsewhere.

Các chuyên gia cho biết HMPV không giống với COVID-19 ở chỗ nó đã tồn tại trong nhiều thập kỷ và có một số khả năng miễn dịch tích hợp đối với nó. Hầu hết trẻ em bị nhiễm vi-rút này ở độ tuổi 5.

Experts say HMPV is unlike COVID-19 in that it has been around for decades and there is some built-in immunity to it. Most children are infected with the virus by the age of 5.

Wang cho biết các bệnh về đường hô hấp hiện đang ảnh hưởng đến người dân ở Trung Quốc là do các tác nhân gây bệnh đã biết gây ra và không có bệnh truyền nhiễm mới nào xuất hiện.

Wang said respiratory diseases currently affecting people in China are caused by known pathogens, and no new infectious diseases have emerged.

Số lượng bệnh nhân tại các phòng khám sốt và khoa cấp cứu trên khắp cả nước đã tăng lên nhưng nhìn chung vẫn thấp hơn so với cùng kỳ năm ngoái, Gao Xinqiang, phó giám đốc Cục Ứng phó Khẩn cấp Y tế của ủy ban y tế cho biết.

The number of patients in fever clinics and emergency departments across the country has been rising but is still generally lower compared to the same period last year, said Gao Xinqiang, deputy director of the Department of Medical Emergency Response of the health commission.

"Không có tình trạng thiếu hụt nguồn lực y tế rõ ràng", Gao cho biết.

"There is no obvious shortage of medical resources," Gao said.

Người phát ngôn của ủy ban Hu Qiangqiang cho biết, các ca nhiễm cúm trên toàn quốc dự kiến ​​sẽ giảm dần vào giữa đến cuối tháng 1.

Flu infections across the country are expected to gradually decline in mid-to-late January, said commission spokesperson Hu Qiangqiang.

Hiện chưa có vắc-xin hoặc thuốc nào dành cho HMPV. Các chuyên gia khuyến cáo các biện pháp phòng ngừa để tránh nhiễm vi-rút và các bệnh về đường hô hấp khác, bao gồm rửa tay thường xuyên, tránh đám đông nếu có thể và đeo khẩu trang ở những nơi đông người.

There are no vaccines or drugs available for HMPV. Experts recommend precautions against catching the virus and other respiratory diseases including washing one's hands regularly, avoiding crowds if possible, and wearing a mask in crowded places.


Thứ Sáu, 10 tháng 1, 2025

After Babel - Tiktok làm hại trẻ con ở quy mô công nghiệp

Link TikTok Is Harming Children at an Industrial Scale



TikTok Is Harming Children at an Industrial Scale

Recently revealed text in legal briefs tells a damning story about the company, in its employees’ own words

TikTok đang gây hại cho trẻ em ở quy mô công nghiệp

Văn bản được tiết lộ gần đây trong các bản tóm tắt pháp lý kể một câu chuyện đáng lên án về công ty, theo lời kể của chính nhân viên

Jon Haidt và Zach Rausch

09 tháng 01 năm 2025

Tomorrow, the U.S. Supreme Court will decide whether it should step in to block or delay the implementation of a law that would ban TikTok from operating in the U.S. If not blocked, the law will force TikTok to cease operations in the U.S. on January 19, unless its Chinese corporate owner (Bytedance) sells to a buyer not controlled by a foreign adversary. The case hinges entirely on constitutional arguments pertaining to national security and free speech. The Justices will hear no evidence about addiction, depression, sexual exploitation, or any of the many harms to children that have been alleged, in separate lawsuits filed by 14 state Attorneys General, to be widespread on TikTok.

Ngày mai, Tòa án Tối cao Hoa Kỳ sẽ quyết định liệu có nên can thiệp để chặn hoặc trì hoãn việc thực hiện luật cấm TikTok hoạt động tại Hoa Kỳ hay không. Nếu không chặn được, luật sẽ buộc TikTok phải ngừng hoạt động tại Hoa Kỳ vào ngày 19 tháng 01, trừ khi chủ sở hữu công ty Trung Quốc (Bytedance) bán cho một bên mua không do đối thủ nước ngoài kiểm soát. Vụ án hoàn toàn xoay quanh các lập luận về hiến pháp liên quan đến an ninh quốc gia và quyền tự do ngôn luận. Các thẩm phán sẽ không nghe bất kỳ bằng chứng nào về chứng nghiện, trầm cảm, bóc lột tình dục hoặc bất kỳ tác hại nào đối với trẻ em đã được cáo buộc, trong các vụ kiện riêng biệt do 14 Tổng chưởng lý tiểu bang đệ trình, là lan rộng trên TikTok.

The upcoming ban will also be adjudicated in the court of public opinion as Americans try to decide whether the loss of access to TikTok would be a reason to protest or celebrate. In this post we argue that Americans should welcome the disappearance of TikTok because the company is causing harm to children, adolescents, and young adults at an industrial scale.

Lệnh cấm sắp tới cũng sẽ được xét xử tại tòa án dư luận khi người Mỹ cố gắng quyết định xem việc mất quyền truy cập vào TikTok có phải là lý do để phản đối hay ăn mừng hay không. Trong bài đăng này, chúng tôi lập luận rằng người Mỹ nên hoan nghênh sự biến mất của TikTok vì công ty này đang gây hại cho trẻ em, thanh thiếu niên và người trẻ tuổi ở quy mô công nghiệp.

Our evidence comes mostly from research done by those 14 Attorneys General. Some of their briefs have been posted online for the world to see. The briefs include hundreds of quotations from internal reports, memos, Slack conversations, and public statements in which executives and employees of TikTok acknowledge and discuss the harms that their company is causing to children. We organize the evidence into five clusters of harms:

Bằng chứng của chúng tôi chủ yếu đến từ nghiên cứu do 14 Tổng chưởng lý thực hiện. Một số bản tóm tắt của họ đã được đăng trực tuyến để cả thế giới xem. Các bản tóm tắt bao gồm hàng trăm trích dẫn từ các báo cáo nội bộ, bản ghi nhớ, cuộc trò chuyện trên Slack và các tuyên bố công khai trong đó các giám đốc điều hành và nhân viên của TikTok thừa nhận và thảo luận về những tác hại mà công ty của họ đang gây ra cho trẻ em. Chúng tôi sắp xếp các bằng chứng thành năm nhóm tác hại:

  1. Addictive, compulsive, and problematic use

  2. Depression, anxiety, body dysmorphia, self-harm, and suicide

  3. Porn, violence, and drugs

  4. Sextortion, CSAM, and sexual exploitation

  5. TikTok knows about underage use and takes little action

  6. Sử dụng gây nghiện, cưỡng chế và có vấn đề

    Trầm cảm, lo âu, rối loạn hình thể, tự làm hại bản thân và tự tử

    Phim khiêu dâm, bạo lực và ma túy

    Tống tiền tình dục, CSAM và bóc lột tình dục

    TikTok biết về việc sử dụng khi chưa đủ tuổi và không có hành động gì

We show that company insiders were aware of multiple widespread and serious harms, and that they were often acting under the orders of company leadership to maximize engagement regardless of the harm to children. As one internal report put it:

Chúng tôi chỉ ra rằng những người trong công ty đã nhận thức được nhiều tác hại nghiêm trọng và lan rộng, và họ thường hành động theo lệnh của ban lãnh đạo công ty để tối đa hóa sự tương tác bất kể tác hại đối với trẻ em. Như một báo cáo nội bộ đã nêu:

“Compulsive usage correlates with a slew of negative mental health effects like loss of analytical skills, memory formation, contextual thinking, conversational depth, empathy, and increased anxiety,” in addition to “interfer[ing] with essential personal responsibilities like sufficient sleep, work/school responsibilities, and connecting with loved ones.”1

“Việc sử dụng cưỡng chế có liên quan đến một loạt các tác động tiêu cực đến sức khỏe tâm thần như mất kỹ năng phân tích, hình thành trí nhớ, tư duy theo ngữ cảnh, chiều sâu đàm thoại, sự đồng cảm và gia tăng lo lắng”, ngoài ra còn “làm ảnh hưởng đến các trách nhiệm cá nhân thiết yếu như ngủ đủ giấc, trách nhiệm công việc/học tập và kết nối với những người thân yêu”.  

Although these harms are known, the company often chooses not to act. For example, one TikTok employee explained,

Mặc dù những tác hại này đã được biết đến, nhưng công ty thường chọn cách không hành động. Ví dụ, một nhân viên TikTok đã giải thích,

“[w]hen we make changes, we make sure core metrics aren’t affected.” This is because “[l]eaders don’t buy into problems” with unhealthy and compulsive usage, and work to address it is “not a priority for any other team.”2

“[khi] chúng tôi thực hiện thay đổi, chúng tôi đảm bảo các số liệu cốt lõi không bị ảnh hưởng”. Điều này là do “[l]ác nhà lãnh đạo không chấp nhận các vấn đề” liên quan đến việc sử dụng không lành mạnh và mang tính cưỡng chế, và nỗ lực giải quyết vấn đề này “không phải là ưu tiên của bất kỳ nhóm nào khác”. 

Although the evidence below is all publicly available, no one we know of has compiled and combined direct quotations from company insiders and internal reports across multiple alleged harms. We think this compilation gives vital information to parents, who might want some insight into the character and business practices of a company that owns much of their children’s attention and influences their social development.3 Parents might want to know that TikTok knows that its parental controls are ineffective and rarely used:

Mặc dù tất cả các bằng chứng dưới đây đều được công khai, nhưng không ai mà chúng tôi biết đã biên soạn và kết hợp các trích dẫn trực tiếp từ những người trong công ty và các báo cáo nội bộ về nhiều tác hại bị cáo buộc. Chúng tôi cho rằng biên soạn này cung cấp thông tin quan trọng cho các bậc phụ huynh, những người có thể muốn hiểu sâu hơn về bản chất và hoạt động kinh doanh của một công ty sở hữu phần lớn sự chú ý của con cái họ và ảnh hưởng đến sự phát triển xã hội của chúng. 3 Các bậc phụ huynh có thể muốn biết rằng TikTok biết rằng các biện pháp kiểm soát của phụ huynh không hiệu quả và hiếm khi được sử dụng:

In another internal document, TikTok admitted that “user research” shows that “[f]amilies do not use Family Pairing” and that “Family Pairing doesn’t address parents’ top concerns,” including “inappropriate content, offensive interactions, and lack of privacy.4

Trong một tài liệu nội bộ khác, TikTok thừa nhận rằng “nghiên cứu người dùng” cho thấy “[các] gia đình không sử dụng Family Pairing” và “Family Pairing không giải quyết được những mối quan tâm hàng đầu của phụ huynh”, bao gồm “nội dung không phù hợp, tương tác gây khó chịu và thiếu sự riêng tư”.  

And even if parental controls worked and parents chose to shield their kids from bad stuff, they can’t because TikTok’s content moderation is poor. An internal study found that the “leakage rate” (of bad stuff getting past moderators) is as follows: 35.71% of “Normalization of Pedophilia” content; 33.33% of “Minor Sexual Solicitation” content; 39.13% of “Minor Physical Abuse” content; 30.36% of “leading minors off platform”; 50% of “Glorification of Minor Sexual Assault”; and 100% of “Fetishizing Minors.”5

Và ngay cả khi các biện pháp kiểm soát của phụ huynh có hiệu quả và phụ huynh chọn cách bảo vệ con mình khỏi những điều xấu, họ cũng không thể làm như vậy vì khả năng kiểm duyệt nội dung của TikTok rất kém. Một nghiên cứu nội bộ phát hiện ra rằng "tỷ lệ rò rỉ" (những thông tin xấu lọt qua được người kiểm duyệt) như sau: 35,71% nội dung "Bình thường hóa ấu dâm"; 33,33% nội dung "Gạ gẫm tình dục trẻ vị thành niên"; 39,13% nội dung "Lạm dụng thể chất trẻ vị thành niên"; 30,36% nội dung "Dẫn trẻ vị thành niên ra khỏi nền tảng"; 50% nội dung "Tôn vinh xâm hại tình dục trẻ vị thành niên"; và 100% nội dung "Thần tượng hóa trẻ vị thành niên". 

For those who think that social media is relatively harmless, we urge you to read the quotations and internal studies described below, in which employees of TikTok discuss the vast and varied harms that they are causing to literally millions of American children each year.6

Đối với những ai cho rằng mạng xã hội tương đối vô hại, chúng tôi khuyên bạn nên đọc các trích dẫn và nghiên cứu nội bộ được mô tả bên dưới, trong đó nhân viên của TikTok thảo luận về những tác hại to lớn và đa dạng mà chúng gây ra cho hàng triệu trẻ em Mỹ mỗi năm. 



Nhập email của bạn...

Đăng ký


1. What We Have From TikTok

1. Những gì chúng ta có từ TikTok

The inspiration for this post was a legal brief filed by the Kentucky Attorney General that was improperly redacted. Redaction is the process in which the AG’s office will black out some of the most damning revelations and quotations before releasing their brief to the public. The redacted sections often contain trade secrets and other text that the company has a legitimate reason to keep private.7

Nguồn cảm hứng cho bài đăng này là một bản tóm tắt pháp lý do Tổng chưởng lý Kentucky đệ trình đã bị biên tập không đúng cách. Biên tập là quá trình mà văn phòng Tổng chưởng lý sẽ xóa một số tiết lộ và trích dẫn đáng lên án nhất trước khi công bố bản tóm tắt của họ cho công chúng. Các phần đã biên tập thường chứa bí mật thương mại và các văn bản khác mà công ty có lý do chính đáng để giữ bí mật. 

But when the Kentucky AG’s office was preparing to post their brief against TikTok, whoever was in charge of doing the redaction simply covered the relevant text with black rectangles. Even though you can’t see the text while reading the PDF, you can just use your cursor to select each black section, copy it, and then paste it into another file to read the hidden text. It is great fun to do this — try it yourself! Or just read our version of the brief in which we have done this for you.8

Nhưng khi văn phòng Tổng chưởng lý Kentucky chuẩn bị đăng bản tóm tắt của họ chống lại TikTok, bất kỳ ai chịu trách nhiệm biên tập chỉ đơn giản là che văn bản có liên quan bằng các hình chữ nhật màu đen. Mặc dù bạn không thể nhìn thấy văn bản khi đọc PDF, bạn chỉ cần sử dụng con trỏ để chọn từng phần màu đen, sao chép rồi dán vào một tệp khác để đọc văn bản ẩn. Thật thú vị khi làm điều này — hãy tự mình thử! Hoặc chỉ cần đọc phiên bản tóm tắt của chúng tôi mà chúng tôi đã thực hiện cho bạn. 

In the rest of this post we organize the direct evidence of harm that is now available to us, taken directly from employees and leaders at TikTok. We give only some highlights here in this post, but you can see our more comprehensive listing of the relevant quotations in a separate Google doc.

Trong phần còn lại của bài đăng này, chúng tôi sắp xếp các bằng chứng trực tiếp về tác hại hiện có sẵn cho chúng tôi, được lấy trực tiếp từ nhân viên và lãnh đạo tại TikTok. Chúng tôi chỉ nêu một số điểm nổi bật trong bài đăng này, nhưng bạn có thể xem danh sách toàn diện hơn của chúng tôi về các trích dẫn có liên quan trong một tài liệu Google riêng.

We draw on four briefs filed by state AGs in their suits against TikTok9Kentucky v. TikTokUtah v. TikTokNebraska v. TikTok, and New York v. TikTok. You can learn more about each in Footnote 9.

Chúng tôi dựa trên bốn bản tóm tắt do các Tổng chưởng lý tiểu bang đệ trình trong các vụ kiện chống lại TikTok9: Kentucky kiện TikTok, Utah kiện TikTok, Nebraska kiện TikTok và New York kiện TikTok. Bạn có thể tìm hiểu thêm về từng vụ trong Chú thích 

Share

2. The Harms They Believe or Know They Are Causing

2. Tác hại mà họ tin hoặc biết là họ đang gây ra

[Note that in harm clusters 1 through 5, below, text in bold is direct quotations from company employees and internal memos. Text not in bold is direct quotations copied from the indicated portion of the indicated AG brief, which sets up the relevant quotation from company insiders. [Italicized text in brackets is annotations from us — Jon and Zach.] For each harm, we draw from the four briefs, and we supplement some sections with reports from journalists in major outlets who discovered relevant information or ran their own experiments by setting up fake accounts for minors on TikTok.]

[Lưu ý rằng trong các nhóm tác hại từ 1 đến 5 bên dưới, văn bản in đậm là trích dẫn trực tiếp từ nhân viên công ty và bản ghi nhớ nội bộ. Văn bản không in đậm là trích dẫn trực tiếp được sao chép từ phần được chỉ định trong bản tóm tắt AG được chỉ định, trong đó thiết lập trích dẫn có liên quan từ những người trong công ty. [Văn bản in nghiêng trong ngoặc là chú thích của chúng tôi — Jon và Zach.] Đối với mỗi tác hại, chúng tôi lấy từ bốn bản tóm tắt và chúng tôi bổ sung một số phần bằng các báo cáo từ các nhà báo ở các cơ quan truyền thông lớn đã phát hiện ra thông tin có liên quan hoặc tự tiến hành thử nghiệm bằng cách thiết lập tài khoản giả cho trẻ vị thành niên trên TikTok.]

Harm Cluster 1: Addictive, Compulsive, and Problematic Use

Nhóm tác hại 1: Sử dụng gây nghiện, cưỡng chế và có vấn đề

[Among the most widely reported harms from TikTok is its ability to pull young people in and not let them go, for hours at a time. TikTok’s algorithm is widely regarded as best-in-class for keeping users scrolling. A 2024 report from Pew finds that 33% of American teens (ages 13 to 17) say that they are on a social media platform “almost constantly,” with 16% saying that just for TikTok. (We estimate that in 2023, there were roughly 21.8 million teens (13-17) in the U.S., which translates to about 3.4 million American teens claiming they are on TikTok almost constantly).10 Below you can see that TikTok is aiming to create just such compulsive use, which in turn can lead to problematic use disorders and behavioral addictions, which then compound the harms in the other four clusters. The company does this even though many of its employees believe their product is bad for children’s development.]

[Trong số những tác hại được báo cáo rộng rãi nhất từ ​​TikTok là khả năng thu hút những người trẻ tuổi và không cho họ rời đi trong nhiều giờ liền. Thuật toán của TikTok được coi là tốt nhất trong lớp để giữ cho người dùng cuộn. Một báo cáo năm 2024 của Pew cho thấy 33% thanh thiếu niên Mỹ (từ 13 đến 17 tuổi) cho biết họ sử dụng nền tảng mạng xã hội "gần như liên tục", trong đó 16% chỉ sử dụng TikTok. (Chúng tôi ước tính rằng vào năm 2023, có khoảng 21,8 triệu thanh thiếu niên (13-17 tuổi) ở Hoa Kỳ, tương đương với khoảng 3,4 triệu thanh thiếu niên Mỹ tuyên bố rằng họ sử dụng TikTok gần như liên tục).10 Dưới đây, bạn có thể thấy rằng TikTok đang hướng đến việc tạo ra hành vi sử dụng cưỡng chế như vậy, từ đó có thể dẫn đến các rối loạn sử dụng có vấn đề và nghiện hành vi, sau đó làm trầm trọng thêm tác hại ở bốn nhóm còn lại. Công ty làm như vậy mặc dù nhiều nhân viên của họ tin rằng sản phẩm của họ không tốt cho sự phát triển của trẻ em.]

Kentucky Brief (KY)

  • KY P. 7, PARA 18

    • TikTok’s executives and employees have admitted that they target young Americans, stating:

      • “It’s better to have young people as an early adopter, especially the teenagers in the U.S. Why? They [sic] got a lot of time.

      • Teenagers in the U.S. are a golden audience . . . . If you look at China, the teenage culture doesn’t exist — the teens are super busy in school studying for tests, so they don’t have the time and luxury to play social media apps.”

      • Kentucky Brief (KY)

        KY P. 7, PHẦN 18

        Các giám đốc điều hành và nhân viên của TikTok đã thừa nhận rằng họ nhắm đến những người Mỹ trẻ tuổi, họ tuyên bố:

        “Tốt hơn là nên để những người trẻ tuổi là những người tiếp nhận sớm, đặc biệt là những thanh thiếu niên ở Hoa Kỳ. Tại sao? Họ [sic] có rất nhiều thời gian.”

        “Thanh thiếu niên ở Hoa Kỳ là đối tượng khán giả vàng . . . . Nếu bạn nhìn vào Trung Quốc, văn hóa thanh thiếu niên không tồn tại — những thanh thiếu niên này rất bận rộn ở trường học để học cho các bài kiểm tra, vì vậy họ không có thời gian và sự xa xỉ để chơi các ứng dụng mạng xã hội.”

  • KY P. 8, PARA 19 [REDACTED BUT RETRIEVABLE TEXT]

    • TikTok knows that the harmful effects of its Platform wreak havoc on the mental health of millions of American children and teenagers and harms them. Its executives have admitted:

      • “The product in itself has baked into it compulsive use.

      • The reason kids watch TikTok is because the algo[rithm] is really good. . . . But I think we need to be cognizant of what it might mean for other opportunities. And when I say other opportunities, I literally mean sleep, and eating, and moving around the room, and looking at somebody in the eyes.

      • KY P. 8, PHẦN 19 [VĂN BẢN ĐÃ XÓA NHƯNG CÓ THỂ TRUY LẠI]

        TikTok biết rằng những tác động có hại của Nền tảng của mình gây ra sự tàn phá đối với sức khỏe tâm thần của hàng triệu trẻ em và thanh thiếu niên Hoa Kỳ và gây hại cho họ. Các giám đốc điều hành của công ty đã thừa nhận:

        “Bản thân sản phẩm đã tạo ra thói quen sử dụng bắt buộc.”

        “Lý do trẻ em xem TikTok là vì thuật toán thực sự tốt. . . . Nhưng tôi nghĩ chúng ta cần phải nhận thức được điều đó có thể có ý nghĩa gì đối với các cơ hội khác. Và khi tôi nói đến các cơ hội khác, theo nghĩa đen, tôi muốn nói đến việc ngủ, ăn, di chuyển trong phòng và nhìn vào mắt ai đó.”

  • KY P. 20, PARA 64 [REDACTED BUT RETRIEVABLE TEXT]

    • An internal presentation on the 2021 strategy for TikTok describes the company as being in an “arms race for attention[.]

    • [Below is a redacted graph from para 67 of KY brief. It shows that TikTok has reached saturation among the 29.7 million US users under the age of 17 who own a smartphone. This means that they can’t get more young users, but they can get more time out of each user, especially if they pull them away from competing platforms.]

KY P. 20, ĐOẠN 64 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

Một bài thuyết trình nội bộ về chiến lược năm 2021 của TikTok mô tả công ty đang trong một “cuộc chạy đua vũ trang để giành sự chú ý[.]”

[Dưới đây là biểu đồ đã được xóa từ đoạn 67 của bản tóm tắt KY. Biểu đồ cho thấy TikTok đã đạt đến mức bão hòa trong số 29,7 triệu người dùng Hoa Kỳ dưới 17 tuổi sở hữu điện thoại thông minh. Điều này có nghĩa là họ không thể có thêm người dùng trẻ tuổi, nhưng họ có thể tận dụng nhiều thời gian hơn từ mỗi người dùng, đặc biệt là nếu họ kéo họ ra khỏi các nền tảng cạnh tranh.]


  • KY P. 40, PARA 121 [REDACTED BUT RETRIEVABLE TEXT]

    • In an unnamed internal TikTok Defendants document from 2019 summarizing use by age, the author concluded:“As expected, across most engagement metrics, the younger the user the better the performance.”

    • KY P. 40, PARA 121 [VĂN BẢN ĐÃ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Trong một tài liệu TikTok Bị đơn nội bộ không nêu tên từ năm 2019 tóm tắt việc sử dụng theo độ tuổi, tác giả kết luận: "Như dự kiến, trên hầu hết các số liệu về mức độ tương tác, người dùng càng trẻ thì hiệu suất càng tốt".

      KY P.40, PARA 125 [REDACTED BUT RETRIEVABLE TEXT]

    • The ‘TikTank’ [internal TikTok group studying issues affecting TikTok] Report observed that “Tiktok is particularly popular with younger users who are particularly sensitive to reinforcement in the form of social reward and have minimal ability to self-regulate effectively.”

    • KY P. 40, PARA 125 [VĂN BẢN ĐÃ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Báo cáo 'TikTank' [nhóm TikTok nội bộ nghiên cứu các vấn đề ảnh hưởng đến TikTok] nhận thấy rằng "Tiktok đặc biệt phổ biến với những người dùng trẻ tuổi, những người đặc biệt nhạy cảm với sự củng cố dưới hình thức phần thưởng xã hội và có khả năng tự điều chỉnh hiệu quả tối thiểu".

  • KY P. 55, PARA 181 [REDACTED BUT RETRIEVABLE TEXT]

    • As an internal guide on push notifications explained, a key goal of TikTok’s push notifications is to “Activate & Engage users with the right content at the right time, to encourage users to open the App more and stay longer.” TikTok uses different kinds of push notifications to achieve this goal. For example, TikTok’s “Interest Push” aims to “activate users so they will return to the app.

    • KY P. 55, PARA 181 [VĂN BẢN ĐÃ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Như hướng dẫn nội bộ về thông báo đẩy đã giải thích, mục tiêu chính của thông báo đẩy trên TikTok là "Kích hoạt & Thu hút người dùng bằng nội dung phù hợp vào đúng thời điểm, để khuyến khích người dùng mở Ứng dụng nhiều hơn và ở lại lâu hơn". TikTok sử dụng nhiều loại thông báo đẩy khác nhau để đạt được mục tiêu này. Ví dụ, "Interest Push" của TikTok nhằm mục đích "kích hoạt người dùng để họ quay lại ứng dụng".

  • KY P. 67, PARA 223 [REDACTED BUT RETRIEVABLE TEXT]

    • TikTok’s success can largely be attributed to strong out of the box personalization and automation, which limits user agency[.]”

KY P. 67, PARA 223 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY LẠI]

“Thành công của TikTok phần lớn có thể là nhờ vào tính năng cá nhân hóa và tự động hóa mạnh mẽ, hạn chế khả năng tự chủ của người dùng[.]”

Utah Brief (UT)

  • UT P. 4, PARA 11

    • Despite admitting internally that LIVE poses “cruel[]” risks to minors— encouraging “addiction and impulsive purchasing of virtual items,” leading to “financial harm,” and putting minors at “developmental risk”—TikTok continues to use manipulative features to increase the time and money users spend on the app. [This quote is referencing TikTok’s LIVE feature]

    • Utah Brief (UT)

      UT P. 4, PARA 11

      Mặc dù thừa nhận nội bộ rằng LIVE gây ra rủi ro “tàn khốc[]” đối với trẻ vị thành niên—khuyến khích “nghiện ngập và mua hàng ảo bốc đồng”, dẫn đến “tổn hại về tài chính” và khiến trẻ vị thành niên có “rủi ro phát triển”—TikTok vẫn tiếp tục sử dụng các tính năng thao túng để tăng thời gian và tiền bạc mà người dùng dành cho ứng dụng. [Trích dẫn này ám chỉ tính năng LIVE của TikTok]

Nebraska Brief (NE)

  • NE P. 14, PARA 52

    • According to Defendants, TikTok’s incredible advertising success is attributable to the fact that its users are “fully leaned in and immersed compared to other platforms.” Defendants describe TikTok as “the leading platform for Information Density” because of its “algorithm and shorter video formats” that “create continuous cycles of engagement.”

    • Nebraska Brief (NE)

      NE P. 14, PARA 52

      Theo Bị đơn, thành công đáng kinh ngạc về quảng cáo của TikTok là do người dùng “hoàn toàn tập trung và đắm chìm so với các nền tảng khác”. Bị đơn mô tả TikTok là “nền tảng hàng đầu về Mật độ thông tin” vì “thuật toán và định dạng video ngắn hơn” của nó “tạo ra các chu kỳ tương tác liên tục”.

  • NE P. 20, PARA 72

    • As Defendants have explained, TikTok’s success “can largely be attributed to strong . . . personalization and automation, which limits user agency” and a “product experience utiliz[ing] many coercive design tactics,” including “numerous features”—like “[i]nfinite scroll, auto-play, constant notifications,” and “the ‘slot machine’ effect”—that “can be considered manipulative.”

    • NE P. 20, PARA 72

      Như Bị đơn đã giải thích, thành công của TikTok "phần lớn có thể là do... cá nhân hóa và tự động hóa mạnh mẽ, hạn chế quyền tự quyết của người dùng" và "trải nghiệm sản phẩm sử dụng nhiều chiến thuật thiết kế cưỡng bức", bao gồm "nhiều tính năng"—như "cuộn vô hạn, phát tự động, thông báo liên tục" và "hiệu ứng 'máy đánh bạc'"—"có thể được coi là thao túng".

      NE P.21, PARA 76

    • Defendants admit that teens are especially susceptible to compulsive usage of the TikTok platform. Internal documents highlight the fact that minor users are “particularly sensitive to reinforcement in the form of social award,” have “minimal ability to self-regulate effectively,” and “do not have executive function to control their screen time.”

    • NE P. 21, PARA 76

      Bị đơn thừa nhận rằng thanh thiếu niên đặc biệt dễ bị sử dụng nền tảng TikTok một cách cưỡng chế. Các tài liệu nội bộ nêu bật thực tế rằng người dùng vị thành niên "đặc biệt nhạy cảm với sự củng cố dưới hình thức giải thưởng xã hội", có "khả năng tự điều chỉnh hiệu quả tối thiểu" và "không có chức năng điều hành để kiểm soát thời gian sử dụng màn hình của mình".

  • NE P. 27, PARA 97

    • In a “TikTok Strategy” presentation, Defendants celebrated the fact that users spend inordinate amounts of time on the platform. “TikTok is in most people’s lives like this,” Defendants explained, referring to online posts that read, “go on tiktok for 5 mins and 3 hours have passed” and “my night routine: watch 3 hours of tiktok videos, try to follow the dance steps, realise u suck at dancing n cry about it, continue watching tiktok videos, sleep.”

    • NE P. 27, PARA 97

      Trong bài thuyết trình "Chiến lược TikTok", Bị đơn đã ca ngợi thực tế là người dùng dành quá nhiều thời gian trên nền tảng này. “TikTok hiện diện trong cuộc sống của hầu hết mọi người như thế này”, Bị cáo giải thích, ám chỉ đến các bài đăng trực tuyến có nội dung “vào tiktok trong 5 phút và 3 giờ đã trôi qua” và “thói quen ban đêm của tôi: xem 3 giờ video tiktok, cố gắng bắt chước các bước nhảy, nhận ra mình nhảy tệ và khóc vì điều đó, tiếp tục xem video tiktok, ngủ”.

  • NE P. 27, PARA 99

    • As one internal report noted, after surveying academic literature on the effects of social media on adolescents, “TikTok is particularly popular with younger users, who are seen as more vulnerable to online harms and the negative impacts of compulsive use.”

    • NE P. 27, PARA 99

      Như một báo cáo nội bộ đã lưu ý, sau khi khảo sát tài liệu học thuật về tác động của mạng xã hội đối với thanh thiếu niên, “TikTok đặc biệt phổ biến với những người dùng trẻ tuổi, những người được coi là dễ bị tổn thương hơn trước các tác hại trực tuyến và tác động tiêu cực của việc sử dụng cưỡng chế”.

  • NE P. 28, PARA 102

    • Another internal report based on in-depth interviews with TikTok users found that overuse of TikTok caused “negative emotions,” “interfered with [users’] obligations and productivity,” and led to “negative impacts . . . on their lives,” including “lost sleep, missed deadlines, poor school performance, running late, etc.” It reported that “many participants described their use of TikTok disturbing their sleep, which limited their productivity and performance the following day,” and that “[e]very participant indicated that time management on TikTok was especially difficult compared to other social media platforms.”

    • NE P. 28, PARA 102

      Một báo cáo nội bộ khác dựa trên các cuộc phỏng vấn chuyên sâu với người dùng TikTok phát hiện ra rằng việc sử dụng quá mức TikTok gây ra “cảm xúc tiêu cực”, “làm ảnh hưởng đến nghĩa vụ và năng suất của [người dùng]” và dẫn đến “tác động tiêu cực . . . trong cuộc sống của họ”, bao gồm “mất ngủ, trễ hạn nộp bài, kết quả học tập kém, đi học muộn, v.v.” Báo cáo cho biết “nhiều người tham gia mô tả việc sử dụng TikTok làm phiền giấc ngủ của họ, điều này hạn chế năng suất và hiệu suất của họ vào ngày hôm sau” và “[t]hầy hết người tham gia đều cho biết việc quản lý thời gian trên TikTok đặc biệt khó khăn so với các nền tảng truyền thông xã hội khác”.

  • NE P. 33, PARA 115

    • But internally, Defendants admit the truth, that real users report “feeling like they are trapped in a rabbit hole of what our algorithm thinks they like.”

    • NE P. 33, PARA 115

      Nhưng bên trong, Bị đơn thừa nhận sự thật rằng người dùng thực sự báo cáo “cảm thấy như họ bị mắc kẹt trong một hang thỏ về những gì thuật toán của chúng tôi nghĩ rằng họ thích”.

NY Brief (NY)

  • NY P. 16, PARA 88

    • Alexandra Evans, again prior to becoming a TikTok executive, co-authored a report explaining how coercive design impacts teenagers: “Persuasive design strategies exploit the natural human desire to be social and popular, by taking advantage of an individual’s fear of not being social and popular in order to extend their online use. For young people, identity requires constant attention, curation and renewal. At key development stages it can be overwhelmingly important to be accepted by your peer group.”

NY Brief (NY)

NY P. 16, PARA 88

Alexandra Evans, một lần nữa trước khi trở thành giám đốc điều hành của TikTok, đã đồng sáng tác một báo cáo giải thích cách thiết kế cưỡng bức tác động đến thanh thiếu niên: “Các chiến lược thiết kế thuyết phục khai thác mong muốn tự nhiên của con người là hòa đồng và nổi tiếng, bằng cách lợi dụng nỗi sợ không hòa đồng và nổi tiếng của một cá nhân để mở rộng việc sử dụng trực tuyến của họ. Đối với những người trẻ tuổi, bản sắc đòi hỏi sự chú ý, quản lý và đổi mới liên tục. Ở những giai đoạn phát triển quan trọng, việc được nhóm bạn bè đồng trang lứa chấp nhận có thể vô cùng quan trọng.”

Harm Cluster 2: Depression, Anxiety, Body Dysmorphia, Self-Harm, and Suicide

Nhóm tác hại 2: Trầm cảm, Lo âu, Rối loạn hình thể, Tự làm hại bản thân và Tự tử

[These are the main harms we focused on in The Anxious Generation, although as you can see in the other four clusters, the harms caused by TikTok go far beyond mental health problems.]

[Đây là những tác hại chính mà chúng tôi tập trung vào trong Thế hệ lo âu, mặc dù như bạn có thể thấy trong bốn nhóm khác, tác hại do TikTok gây ra vượt xa các vấn đề về sức khỏe tâm thần.]

Kentucky Brief (KY)

  • KY P. 60, PARA 196 [REDACTED BUT RETRIEVABLE TEXT]

    • In the Digital Wellbeing Document, Defendants admit that “offering effects that perpetuate a narrow beauty norm . .. ha[s] the potential to negatively impact the wellbeing of our community.”

    • Kentucky Brief (KY)

      KY P. 60, PARA 196 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Trong Tài liệu về Sức khỏe Kỹ thuật số, Bị cáo thừa nhận rằng “việc cung cấp các hiệu ứng duy trì chuẩn mực vẻ đẹp hạn hẹp... có khả năng tác động tiêu cực đến sức khỏe của cộng đồng chúng ta”.

  • KY P. 65, PARA 213 [REDACTED BUT RETRIEVABLE TEXT]

    • The TikTank [internal TikTok group studying issues affecting TikTok] Report also found that “compulsive usage correlates with a slew of negative mental health effects like loss of analytical skills, memory formation, contextual thinking, conversational depth, empathy, and increased anxiety.” Additionally, “compulsive usage also interferes with essential personal responsibilities like sufficient sleep, work/school responsibilities, and connecting with loved ones.”

    • KY P. 65, PARA 213 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Báo cáo TikTank [nhóm TikTok nội bộ nghiên cứu các vấn đề ảnh hưởng đến TikTok] cũng phát hiện ra rằng "việc sử dụng cưỡng chế có liên quan đến một loạt các tác động tiêu cực đến sức khỏe tâm thần như mất kỹ năng phân tích, hình thành trí nhớ, tư duy theo ngữ cảnh, chiều sâu đàm thoại, sự đồng cảm và lo lắng gia tăng". Ngoài ra, "việc sử dụng cưỡng chế cũng ảnh hưởng đến các trách nhiệm cá nhân thiết yếu như ngủ đủ giấc, trách nhiệm công việc/học tập và kết nối với những người thân yêu".

  • KY P. 84, PARA 260 [REDACTED BUT RETRIEVABLE TEXT]

    • In one experiment, Defendants’ employees created test accounts and observed their descent into negative filter bubbles. One employee wrote, “After following several ‘painhub’ and ‘sadnotes’ accounts, it took me 20 mins to drop into ‘negative’ filter bubble. The intensive density of negative content makes me lower down mood and increase my sadness feelings though I am in a high spirit in my recent life.” Another employee observed, “there are a lot of videos mentioning suicide,” including one asking, “If you could kill yourself without hurting anybody would you?”

KY P. 84, PARA 260 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

Trong một thí nghiệm, nhân viên của Bị cáo đã tạo tài khoản thử nghiệm và quan sát thấy họ rơi vào bong bóng lọc tiêu cực. Một nhân viên đã viết, "Sau khi theo dõi một số tài khoản 'painhub' và 'sadnotes', tôi mất 20 phút để rơi vào bong bóng lọc 'tiêu cực'. Mật độ nội dung tiêu cực dày đặc khiến tôi hạ thấp tâm trạng và tăng cảm giác buồn bã mặc dù tôi đang có tinh thần cao trong cuộc sống gần đây". Một nhân viên khác nhận xét, "có rất nhiều video đề cập đến việc tự tử", bao gồm một video hỏi, "Nếu bạn có thể tự tử mà không làm hại ai, bạn có làm không?"


  • KY P. 98, PARA 309-310 [REDACTED BUT RETRIEVABLE TEXT]

    • 309. Defendants know these R1 reviews do not catch a great deal of content that violates the Community Guidelines or restrict content to age-appropriate groups.

    • For example, a presentation about suicide and self-harm content moderation notes that R1 Moderators do not always speak the language shown in the videos, that moderators do not understand context, and that moderators are not given policy reminders for new instructions.

KY P. 98, PARA 309-310 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

309. Bị đơn biết rằng các đánh giá R1 này không phát hiện được nhiều nội dung vi phạm Nguyên tắc cộng đồng hoặc hạn chế nội dung đối với các nhóm phù hợp với độ tuổi.

Ví dụ, một bài thuyết trình về kiểm duyệt nội dung tự tử và tự làm hại bản thân lưu ý rằng Người kiểm duyệt R1 không phải lúc nào cũng nói ngôn ngữ được hiển thị trong video, rằng người kiểm duyệt không hiểu ngữ cảnh và rằng người kiểm duyệt không được nhắc nhở về chính sách đối với các hướng dẫn mới.

Nebraska Brief (NE)

  • [No direct quotes from TikTok employees, but see pages 36-43 for a section of the brief that describes the videos that were sent to fictitious accounts created by the AG’s office, pretending to be 13, 15, and 17 year old Nebraska residents. “Within minutes of scrolling through TikTok’s “For You” feed—before the accounts had searched for any videos or “followed” any users—TikTok’s algorithm repeatedly exposed each Nebraska teen account to overtly mature and otherwise inappropriate content.” Some of the videos sent to young girls—just on the basis of their age and gender—clearly encouraged young girls to starve themselves.]

  • [Some of the videos also clearly celebrate suicide as the way to escape from psychological pain.]

Nebraska Brief (NE)

[Không có trích dẫn trực tiếp từ nhân viên TikTok, nhưng hãy xem trang 36-43 để biết phần tóm tắt mô tả các video được gửi đến các tài khoản giả mạo do văn phòng Tổng chưởng lý tạo ra, giả vờ là cư dân Nebraska 13, 15 và 17 tuổi. “Chỉ trong vài phút sau khi cuộn qua nguồn cấp dữ liệu “Dành cho bạn” của TikTok—trước khi các tài khoản tìm kiếm bất kỳ video nào hoặc “theo dõi” bất kỳ người dùng nào—thuật toán của TikTok đã liên tục phơi bày từng tài khoản thanh thiếu niên Nebraska với nội dung quá mức dành cho người lớn và không phù hợp.” Một số video được gửi cho các cô gái trẻ—chỉ dựa trên độ tuổi và giới tính của họ—rõ ràng đã khuyến khích các cô gái trẻ tự bỏ đói mình.]

[Một số video cũng rõ ràng ca ngợi hành động tự tử như một cách thoát khỏi nỗi đau tâm lý.]


Image. Pg. 40, para. 109. “One video shows a woman smiling at the camera, with the text “[m]e staring at my mum after begging her to let me go out for a late night walk alone knowing d*mn well it will be the last time she saw me.” The video has over 794k views and 191.3k likes.”

Hình ảnh. Trang 40, đoạn 109. “Một video cho thấy một người phụ nữ mỉm cười với máy quay, với dòng chữ “[m]e nhìn chằm chằm vào mẹ sau khi cầu xin bà cho tôi ra ngoài đi dạo một mình vào đêm khuya, biết rằng chết tiệt, đó sẽ là lần cuối cùng bà nhìn thấy tôi.” Video có hơn 794 nghìn lượt xem và 191,3 nghìn lượt thích.”

Harm 3: Porn, Violence, and Drugs

Tác hại 3: Nội dung khiêu dâm, bạo lực và ma túy

[There is widespread exposure to pornographic, violent, and drug-related content on TikTok. This content is often viewed on one’s newsfeed and through TikTok’s “live” features. Although nudity, pornography, sexually explicit content, non-consensual sexual acts, the sharing of non-consensual intimate imagery and sexual solicitation violates TikTok’s guidelines, the content is easily accessed and recommended to users.]

[Có rất nhiều nội dung khiêu dâm, bạo lực và liên quan đến ma túy trên TikTok. Nội dung này thường được xem trên nguồn cấp tin tức của một người và thông qua các tính năng "trực tiếp" của TikTok. Mặc dù ảnh khoả thân, khiêu dâm, nội dung khiêu dâm, hành vi tình dục không đồng thuận, việc chia sẻ hình ảnh thân mật không đồng thuận và hành vi gạ gẫm tình dục vi phạm các nguyên tắc của TikTok, nhưng nội dung này vẫn dễ dàng được truy cập và khuyến nghị cho người dùng.]

Kentucky Brief (KY)

  • KY P. 38, PARA 115 [REDACTED BUT RETRIEVABLE TEXT]

    • In an internal document discussing how to respond to the [Wall Street Journal] series, TikTok employees acknowledged material failures in their process, including but not limited to the fact that “46.5% sexualized and drug content shared by WSJ is not covered by [the existing moderation] policy (ANSA 55%, Drug 24%).” Similarly, “[t]he moderation leakage rate of sexualized and drug content is 73.5% (ANSA 58%, Drug 90%).” The reason for this moderation failure is that “most prevalent policy titles are sexually explicit language and mention of drugs,” whereas “implicit language [e.g., coded language] is often used in videos and failed to be captured [sic] by moderators.”

    • Kentucky Brief (KY)

      KY P. 38, PARA 115 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP LẠI]

      Trong một tài liệu nội bộ thảo luận về cách phản hồi loạt bài [Wall Street Journal], các nhân viên TikTok đã thừa nhận những sai sót về mặt vật chất trong quy trình của họ, bao gồm nhưng không giới hạn ở thực tế là "46,5% nội dung khiêu dâm và ma túy do WSJ chia sẻ không nằm trong phạm vi của chính sách [kiểm duyệt hiện hành] (ANSA 55%, Ma túy 24%)." Tương tự như vậy, “[t]ỷ lệ rò rỉ nội dung khiêu dâm và ma túy là 73,5% (ANSA 58%, Ma túy 90%).” Lý do cho sự thất bại trong việc kiểm duyệt này là “hầu hết các tiêu đề chính sách phổ biến đều là ngôn ngữ khiêu dâm và đề cập đến ma túy”, trong khi “ngôn ngữ ẩn dụ [ví dụ: ngôn ngữ được mã hóa] thường được sử dụng trong video và không được người kiểm duyệt nắm bắt”.


  • KY P. 53, PARA 168 [REDACTED BUT RETRIEVABLE TEXT]

    • Horrifyingly, the report (TT Live & US Safety Summit, “Project Meramec”) also confirms that “Minors Easily Access Livestream Feed” and that there is “[n]o age-related feed strategy.” Further, the report acknowledges that “[o]ne of our key discoveries during this project that has turned into a major challenge with Live business is that the content that gets the highest engagement may not be the content we want on our platform. Transactional sexual content incorporates hundreds of signals that inform the [algorithm] as well as LiveOps metrics of success - # of gifts, frequency of hosts going live, # of comments, etc.”

    • KY P. 53, PARA 168 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Thật kinh hoàng, báo cáo (TT Live & US Safety Summit, “Dự án Meramec”) cũng xác nhận rằng “Trẻ vị thành niên dễ dàng truy cập Nguồn cấp dữ liệu phát trực tiếp” và “[k]hông có chiến lược nguồn cấp dữ liệu liên quan đến độ tuổi nào”. Hơn nữa, báo cáo thừa nhận rằng “[m]ột trong những khám phá quan trọng của chúng tôi trong dự án này đã trở thành thách thức lớn đối với doanh nghiệp Phát trực tiếp là nội dung có mức độ tương tác cao nhất có thể không phải là nội dung chúng tôi muốn trên nền tảng của mình. Nội dung khiêu dâm giao dịch kết hợp hàng trăm tín hiệu cung cấp thông tin cho [thuật toán] cũng như số liệu thành công của LiveOps - # quà tặng, tần suất máy chủ phát trực tiếp, # bình luận, v.v.”

      KY P.106, PARA 341 [REDACTED BUT RETRIEVABLE TEXT]

    • Although TikTok boasts thorough content review processes, it does not disclose significant “leakage” rates, measuring the percentage of violative content that is not moderated or removed. Internally, TikTok knows the rate at which certain categories of content leak through its moderation processes, including: 35.71% of “Normalization of Pedophilia” content; 33.33% of “Minor Sexual Solicitation” content; 39.13% of “Minor Physical Abuse” content; 30.36% of “leading minors off platform”; 50% of “Glorification of Minor Sexual Assault”; and “100% of “Fetishizing Minors.”

    • KY P.106, PARA 341 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Mặc dù TikTok tự hào về quy trình đánh giá nội dung kỹ lưỡng, nhưng không tiết lộ tỷ lệ "rò rỉ" đáng kể, đo lường tỷ lệ phần trăm nội dung vi phạm không được kiểm duyệt hoặc xóa. Về mặt nội bộ, TikTok biết tỷ lệ rò rỉ của một số danh mục nội dung nhất định thông qua quy trình kiểm duyệt của mình, bao gồm: 35,71% nội dung "Bình thường hóa ấu dâm"; 33,33% nội dung "Gạ gẫm tình dục trẻ vị thành niên"; 39,13% nội dung "Lạm dụng thể chất trẻ vị thành niên"; 30,36% nội dung "Dẫn trẻ vị thành niên ra khỏi nền tảng"; 50% nội dung "Tôn vinh xâm hại tình dục trẻ vị thành niên"; và "100% nội dung "Gây mê trẻ vị thành niên".

Utah Brief (UT)

  • UT P. 5, PARA 13

    • TikTok also knows that LIVE is being used for money laundering and other criminal activities.

    • Utah Brief (UT)

      UT P. 5, PARA 13

      TikTok cũng biết rằng LIVE đang được sử dụng để rửa tiền và các hoạt động tội phạm khác.

      PARA 14: Vào năm 2021, TikTok đã khởi động “Dự án Jupiter” để điều tra nghi ngờ rằng tội phạm có tổ chức đang sử dụng LIVE để rửa tiền thông qua tính năng tặng quà của TikTok. TikTok phát hiện ra rằng tội phạm đang bán ma túy và điều hành các hoạt động gian lận trên LIVE. [TikTok có hệ thống tiền ảo nơi người dùng có thể “tặng quà” cho nhau].

      PARA 14: In 2021, TikTok launched “Project Jupiter” to investigate suspicions that organized crime was using LIVE to launder money through TikTok’s gifting feature. TikTok discovered that criminals were selling drugs and running fraud operations on LIVE. [TikTok has a virtual currency system where users can “gift” one another].

    • PARA 15: TikTok admits that sexual exploitation and illegal activities on LIVE are “controversial” and worsened by its own monetization scheme. Despite acknowledging internally that “sexually suggestive LIVE content is on the rise,” TikTok refuses to warn consumers about these dangers. Instead, TikTok plans to “make better use of monetization methods such as gifting and subscription to gain revenue . . . .”

    • PARA 15: TikTok thừa nhận rằng việc khai thác tình dục và các hoạt động bất hợp pháp trên LIVE là “gây tranh cãi” và trở nên tồi tệ hơn do chính chương trình kiếm tiền của họ. Mặc dù thừa nhận nội bộ rằng “nội dung LIVE có nội dung khiêu dâm đang gia tăng”, TikTok vẫn từ chối cảnh báo người tiêu dùng về những mối nguy hiểm này. Thay vào đó, TikTok có kế hoạch “sử dụng tốt hơn các phương pháp kiếm tiền như tặng quà và đăng ký để kiếm doanh thu . . . .”

  • UT P. 10, PARA 32

    • The Division’s presuit investigation also confirmed that TikTok’s platform facilitates the sale of illegal drugs to underage children right here at our doorstep—including easily allowing TikTok users to offer the sale and delivery of drugs like Xanax, Valium, and MDMA to children in Salt Lake City.

UT P. 10, PARA 32

Cuộc điều tra trước khi khởi kiện của Sở cũng xác nhận rằng nền tảng TikTok tạo điều kiện cho việc bán ma túy bất hợp pháp cho trẻ em vị thành niên ngay tại nhà chúng ta—bao gồm cả việc dễ dàng cho phép người dùng TikTok cung cấp dịch vụ bán và giao các loại ma túy như Xanax, Valium và MDMA cho trẻ em ở Salt Lake City.

Image. Pg. 31, para. 97: “An investigator posed as a 17-year-old boy in Utah on TikTok, and after a single initial post on a message board asking for “plugs” (a euphemism for drugs), was quickly approached by dealers on the platform offering a laundry list of drugs for shipment.” Figure shows “a list of drugs for sale on TikTok.”
  • Hình ảnh. Trang 31, đoạn 97: “Một điều tra viên đóng giả là một cậu bé 17 tuổi ở Utah trên TikTok, và sau một bài đăng ban đầu trên bảng tin yêu cầu “plug” (một cách nói tránh của ma túy), đã nhanh chóng bị những kẻ buôn bán trên nền tảng này tiếp cận và đưa ra một danh sách dài các loại ma túy để vận chuyển.” Hình ảnh cho thấy “một danh sách các loại ma túy được bán trên TikTok.”
  • UT P. 31, PARA 96

    • TikTok also knows that LIVE facilitates other illegal activity. By as early as 2021, TikTok knew that drug trafficking was “becoming more prevalent” on the app.

    • UT P. 31, PARA 96

      TikTok cũng biết rằng LIVE tạo điều kiện cho các hoạt động bất hợp pháp khác. Ngay từ năm 2021, TikTok đã biết rằng nạn buôn bán ma túy đang "trở nên phổ biến hơn" trên ứng dụng này.

Nebraska Brief (NE)

  • NE P. 32, PARA 114

    • When The Journal shared “a sample of 974 videos about drugs, pornography, and other adult content that were served to minor accounts,” a spokesperson for Defendants stated that “the majority didn’t violate guidelines”—though several hundred were subsequently removed—and that “the [TikTok] app doesn’t differentiate between videos it serves to adults and minors.”

    • Nebraska Brief (NE)

      NE P. 32, PARA 114

      Khi Tạp chí chia sẻ "mẫu gồm 974 video về ma túy, khiêu dâm và nội dung dành cho người lớn khác được gửi đến các tài khoản trẻ vị thành niên", một phát ngôn viên của Bị cáo tuyên bố rằng "phần lớn không vi phạm các nguyên tắc"—mặc dù sau đó một số trăm video đã bị xóa—và rằng "ứng dụng [TikTok] không phân biệt giữa các video mà nó gửi đến người lớn và trẻ vị thành niên".

      [See pages 35-36 and 43-50 for a section of the brief that describes the videos that were sent almost immediately to fictitious accounts created by the AG’s office, pretending to be 13, 15, and 17 year old Nebraska minors. Some of the videos are adult porn actresses engaging in lewd and obscene behavior on TikTok, in order to lure customers over to their Onlyfans pages, sometimes via Instagram.]

    • [Xem trang 35-36 và 43-50 để biết phần tóm tắt mô tả các video được gửi gần như ngay lập tức đến các tài khoản giả mạo do văn phòng Tổng chưởng lý tạo ra, giả làm trẻ vị thành niên Nebraska 13, 15 và 17 tuổi. Một số video là cảnh các nữ diễn viên khiêu dâm người lớn tham gia vào hành vi dâm ô và khiếm nhã trên TikTok, nhằm thu hút khách hàng đến trang Onlyfans của họ, đôi khi là thông qua Instagram.]

NY Brief (NY)

  • NY P. 45, PARA 215

    • On its website, TikTok says that users in Restricted Mode “shouldn’t see mature or complex themes, such as: [p]rofanity[, s]exually suggestive content[, r]ealistic violence or threatening imagery[, f]irearms or weapons in an environment that isn’t appropriate[, i]llegal or controlled substances/drugs[, and e]xplicit references to mature or complex themes that may reflect personal experiences or real-world events that are intended for older audiences.” [But they do, as you can see in the leakage rates found in KY P. 106, PARA 341]

NY Brief (NY)

NY P. 45, PARA 215

Trên trang web của mình, TikTok cho biết người dùng ở Chế độ hạn chế “không nên xem các chủ đề phức tạp hoặc dành cho người lớn, chẳng hạn như: [p]hư cấu[, nội dung gợi ý về tình dục[,]bạo lực thực tế hoặc hình ảnh đe dọa[,]vũ khí hoặc vũ khí trong môi trường không phù hợp[,]chất/ma túy bất hợp pháp hoặc bị kiểm soát[, và]các tham chiếu rõ ràng đến các chủ đề phức tạp hoặc dành cho người lớn có thể phản ánh trải nghiệm cá nhân hoặc các sự kiện trong thế giới thực dành cho đối tượng khán giả lớn tuổi hơn.” [Nhưng họ làm vậy, như bạn có thể thấy trong tỷ lệ rò rỉ được tìm thấy trong KY P. 106, PARA 341]

Harm Cluster 4: Sextortion, CSAM, and Sexual Exploitation

Nhóm tác hại 4: Tống tiền tình dục, CSAM và Bóc lột tình dục

[Recent revelations reported out from the Wall Street Journal and other outlets have shown that many social media companies and device providers (e.g., Apple) have rampant and rarely addressed cases of sextortionchild sexual abuse material (CSAM), and sexual predation occurring via their platforms/devices. This is also the case with TikTok.]

  • [Những tiết lộ gần đây được báo cáo từ Tạp chí Phố Wall và các phương tiện truyền thông khác cho thấy nhiều công ty truyền thông xã hội và nhà cung cấp thiết bị (ví dụ: Apple) đã tràn lan và hiếm khi giải quyết các trường hợp tống tiền tình dục, tài liệu lạm dụng tình dục trẻ em (CSAM) và xâm hại tình dục xảy ra thông qua nền tảng/thiết bị của họ. TikTok cũng vậy.]

Kentucky Brief (KY)

  • KY P. 37, PARA 111:

    • Federal law mandates that Defendants report suspected CSAM to the National Center for Missing and Exploited Children (“NCMEC”) under 18 U.S.C. § 2258A. To limit and avoid its reporting requirements under federal law, Defendants purposely designed TikTok—which it knows are used by children, including children under 13—not to incorporate modern CSAM detection technology. This technology would be free for Defendants to implement within TikTok’s product design.

    • PARA 113: While Defendants have stepped up their reporting to NCMEC [National Center for Missing & Exploited Children]—reporting 362,108 reports in the last half of 2023—these efforts illustrate how wantonly negligent TikTok has been historically, with only 596 reports made in 2019 and 22,692 in 2020. Defendants’ disregard for the safety of Young Users on TikTok has endangered countless children, including children in Kentucky.

    • Kentucky Brief (KY)

      KY P. 37, PARA 111:

      Luật liên bang yêu cầu Bị đơn phải báo cáo nghi ngờ CSAM cho Trung tâm quốc gia về trẻ em mất tích và bị bóc lột (“NCMEC”) theo 18 U.S.C. § 2258A. Để hạn chế và tránh các yêu cầu báo cáo theo luật liên bang, Bị đơn cố tình thiết kế TikTok—mà họ biết là trẻ em, bao gồm cả trẻ em dưới 13 tuổi, không tích hợp công nghệ phát hiện CSAM hiện đại. Bị đơn có thể tự do triển khai công nghệ này trong thiết kế sản phẩm của TikTok.

      PARA 113: Mặc dù Bị đơn đã tăng cường báo cáo lên NCMEC [Trung tâm quốc gia về trẻ em mất tích và bị bóc lột]—báo cáo 362.108 báo cáo trong nửa cuối năm 2023—nhưng những nỗ lực này cho thấy TikTok đã vô tình vô trách nhiệm như thế nào trong lịch sử, với chỉ 596 báo cáo được thực hiện vào năm 2019 và 22.692 báo cáo vào năm 2020. Việc Bị đơn coi thường sự an toàn của Người dùng trẻ tuổi trên TikTok đã gây nguy hiểm cho vô số trẻ em, bao gồm cả trẻ em ở Kentucky.

  • KY P. 100, PARA 316 [REDACTED BUT RETRIEVABLE TEXT]

    • According to a presentation by the Trust and Safety group, “[u]sers are more likely to post comments than videos,” because about “42% [of users] are ‘comment only’ users[.]”

    • PARA 317: But the vast majority of comments never go through human moderation. According to that same document, “Comments are increasing and manual coverage is disproportionately low.” In fact, “[h]uman moderation for comment review is at 0.25%.”

          • KY P. 100, PARA 316 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY LẠI]

      Theo một bài thuyết trình của nhóm Trust and Safety, “[người] dùng có nhiều khả năng đăng bình luận hơn là đăng video”, vì khoảng “42% [người dùng] là người dùng ‘chỉ bình luận’[.]”

      PARA 317: Nhưng phần lớn các bình luận không bao giờ trải qua quá trình kiểm duyệt của con người. Theo cùng một tài liệu đó, “Bình luận đang tăng lên và phạm vi phủ sóng thủ công thấp một cách không cân xứng”. Trên thực tế, “[t]hiều người kiểm duyệt để xem xét bình luận là 0,25%”.

      Utah Brief (UT)

  • UT P. 3, PARA 7

    • But TikTok has long known—and hidden—the significant risks of live streaming, especially for children. By TikTok’s own admission: “we’ve created an environment that encourages sexual content.”

    • Utah Brief (UT)

      UT P. 3, PARA 7

      Nhưng TikTok từ lâu đã biết—và che giấu—những rủi ro đáng kể của phát trực tiếp, đặc biệt là đối với trẻ em. Theo lời thừa nhận của chính TikTok: “chúng tôi đã tạo ra một môi trường khuyến khích nội dung khiêu dâm”.

  • UT P. 4, PARA 9

    • In early 2022, TikTok’s internal investigation of LIVE, called “Project Meramec,” revealed shocking findings. Hundreds of thousands of children between 13 and 15 years old were bypassing TikTok’s minimum age restrictions, hosting LIVE sessions, and receiving concerning messages from adults. The project confirmed that LIVE “enable[d the] exploitation of live hosts” and that TikTok profited significantly from “transactional gifting” involving nudity and sexual activity, all facilitated by TikTok’s virtual currency system.

          • UT P. 4, PARA 9

      Vào đầu năm 2022, cuộc điều tra nội bộ của TikTok về LIVE, có tên là “Dự án Meramec”, đã tiết lộ những phát hiện gây sốc. Hàng trăm nghìn trẻ em từ 13 đến 15 tuổi đã bỏ qua các hạn chế về độ tuổi tối thiểu của TikTok, tổ chức các buổi LIVE và nhận được những tin nhắn đáng lo ngại từ người lớn. Dự án đã xác nhận rằng LIVE “cho phép khai thác những người dẫn chương trình trực tiếp” và TikTok đã thu được lợi nhuận đáng kể từ “tặng quà giao dịch” liên quan đến khỏa thân và hoạt động tình dục, tất cả đều được tạo điều kiện thuận lợi bởi hệ thống tiền tệ ảo của TikTok.

  • UT P. 36, PARA 115

    • In response to the Forbes article, TikTok also conducted a formal investigation into issues on LIVE called “Project Meramec.” TikTok shared the results of the investigation internally during a May 2022 “Safety Summit”:

    • PARA 116: Project Meramec confirmed that young users well under the minimum age requirement could host LIVE sessions on TikTok. The study confirmed that in just the month of January 2022 alone, 112,000 “L1” users (i.e., a metric TikTok uses to categorize users between 13 and 15 years old) hosted LIVE sessions.

    • PARA 117: These underage users also received a significant number of direct messages from adult users, raising red flags to TikTok that these minors were likely being groomed by adults. Project Meramec revealed that TikTok received not only “significant revenue” from “transactional gifting”—to the tune of one million Gifts in January 2022 alone—but also that this revenue was in large part generated through transactions for sexual content.

    • UT P. 36, PARA 115

      Để phản hồi bài viết của Forbes, TikTok cũng đã tiến hành một cuộc điều tra chính thức về các vấn đề trên LIVE có tên là “Dự án Meramec”. TikTok đã chia sẻ kết quả điều tra nội bộ trong “Hội nghị thượng đỉnh về an toàn” vào tháng 5 năm 2022:

      PARA 116: Dự án Meramec xác nhận rằng những người dùng trẻ tuổi dưới độ tuổi tối thiểu có thể tổ chức các buổi LIVE trên TikTok. Nghiên cứu đã xác nhận rằng chỉ riêng trong tháng 1 năm 2022, đã có 112.000 người dùng “L1” (tức là số liệu mà TikTok sử dụng để phân loại người dùng từ 13 đến 15 tuổi) tổ chức các buổi LIVE.

      PARA 117: Những người dùng chưa đủ tuổi này cũng nhận được một số lượng lớn tin nhắn trực tiếp từ người dùng trưởng thành, khiến TikTok cảnh báo rằng những trẻ vị thành niên này có khả năng bị người lớn dụ dỗ. Dự án Meramec tiết lộ rằng TikTok không chỉ nhận được "doanh thu đáng kể" từ "tặng quà giao dịch" - lên tới một triệu Quà tặng chỉ tính riêng trong tháng 1 năm 2022 - mà doanh thu này phần lớn được tạo ra thông qua các giao dịch cho nội dung khiêu dâm.

  • UT P. 34-35, PARA 109

    • An internal study from December 2023, following the Forbes article, documented what TikTok admits is “the cruelty” of maintaining LIVE with its current risks for minors on the app. The study showed its LIVE feature had the following characteristics:

      • “[H]igher proportion[s] of minor users”;

      • “Minor users are more likely to access high severity risk LIVE content than adult users”;

      • For violating content like “[a]dult nudity and sexual activities (ANSA) . . . and minor-hosted LIVE rooms, minor views are likely 2 times higher than other LIVE rooms”; and

      • “Minor users lack self-protection awareness and interact more with risky LIVE content.”

      • UT P. 34-35, PARA 109

Một nghiên cứu nội bộ từ tháng 12 năm 2023, sau bài báo của Forbes, đã ghi lại những gì TikTok thừa nhận là "sự tàn ác" khi duy trì LIVE với những rủi ro hiện tại đối với trẻ vị thành niên trên ứng dụng. Nghiên cứu cho thấy tính năng LIVE của ứng dụng có các đặc điểm sau:

"Tỷ lệ người dùng vị thành niên cao hơn";

"Người dùng vị thành niên có nhiều khả năng truy cập vào nội dung LIVE có mức độ rủi ro cao hơn người dùng trưởng thành";

Đối với nội dung vi phạm như "[a]nude người lớn và hoạt động tình dục (ANSA) . . . và phòng LIVE do trẻ vị thành niên lưu trữ, lượt xem của trẻ vị thành niên có thể cao gấp 2 lần so với các phòng LIVE khác"; và

"Người dùng vị thành niên thiếu nhận thức về việc tự bảo vệ bản thân và tương tác nhiều hơn với nội dung LIVE có rủi ro".

Image. Pg. 42, para. 139: “Despite acknowledging how downright ‘irresponsible’ it would be to expect that users will use LIVE wisely without appropriate safeguards in place, company leaders have admitted internally that the company placed profits over the safety of consumers.” Figure 16 shows a February 2022 internal chat between two TikTok employees.
Hình ảnh. Trang 42, đoạn 139: “Mặc dù thừa nhận rằng sẽ ‘vô trách nhiệm’ đến mức nào khi mong đợi người dùng sẽ sử dụng LIVE một cách khôn ngoan mà không có biện pháp bảo vệ phù hợp, nhưng các nhà lãnh đạo công ty đã thừa nhận nội bộ rằng công ty đặt lợi nhuận lên trên sự an toàn của người tiêu dùng.” Hình 16 cho thấy cuộc trò chuyện nội bộ vào tháng 2 năm 2022 giữa hai nhân viên TikTok.

  • UT P. 35, PARA 111

    • In February 2022, two TikTok leaders discussed the need to remove “egregious content from clearly commercial sexual solicitation accounts,” and were aware of issues with women and minors being sexually solicited through LIVE.

    • PARA 112: these leaders knew about agencies that recruited minors to create Child Sexual Abuse Material and commercialized it using LIVE.

    • PARA 113: In another example from a March 2022 LIVE safety survey, users reported that “streamer-led sexual engagements (often transactional) [were] commonly associated with TikTok LIVE.” Users also reported “often seeing cam-girls or prostitutes asking viewers for tips/donations to take off their clothes or write their names on their body . . . .” That same month, TikTok employees admitted “cam girls” (or women who do sex work online by streaming videos for money) were on LIVE and that these videos had a “good amount of minors engaging in it.” TikTok leaders have known since at least 2020 that TikTok has “a lot of nudity and soft porn.” An internal document from May 2020 also highlighted concerns about “camming” becoming more popular as sex workers turned to online platforms during the COVID-19 pandemic.

    • PARA 114: TikTok has long known that virtual gifting is used as a predatory grooming tactic on LIVE. TikTok has internally acknowledged that “perpetrators tend to use tactics such as gift giving, flattery, and gifting money to win the trust of minors.”

    • UT P. 35, PARA 111

      Vào tháng 2 năm 2022, hai nhà lãnh đạo TikTok đã thảo luận về nhu cầu xóa "nội dung vi phạm pháp luật khỏi các tài khoản rõ ràng là thương mại" và nhận thức được các vấn đề liên quan đến việc phụ nữ và trẻ vị thành niên bị dụ dỗ tình dục thông qua LIVE.

      PARA 112: những nhà lãnh đạo này biết về các cơ quan tuyển dụng trẻ vị thành niên để tạo ra Tài liệu lạm dụng tình dục trẻ em và thương mại hóa tài liệu đó bằng LIVE.

      PARA 113: Trong một ví dụ khác từ cuộc khảo sát an toàn LIVE vào tháng 3 năm 2022, người dùng báo cáo rằng "các hoạt động tình dục do người phát trực tiếp dẫn dắt (thường là giao dịch) [thường] liên quan đến TikTok LIVE". Người dùng cũng báo cáo rằng "thường thấy các cô gái quay phim hoặc gái mại dâm yêu cầu người xem tiền boa/quyên góp để cởi đồ hoặc viết tên họ lên cơ thể của họ . . . ." Cùng tháng đó, các nhân viên TikTok thừa nhận rằng "các cô gái quay phim" (hoặc những người phụ nữ hành nghề mại dâm trực tuyến bằng cách phát trực tuyến video để kiếm tiền) đã tham gia LIVE và những video này có "một lượng lớn trẻ vị thành niên tham gia". Các nhà lãnh đạo TikTok đã biết ít nhất từ ​​năm 2020 rằng TikTok có "rất nhiều ảnh khoả thân và khiêu dâm nhẹ". Một tài liệu nội bộ từ tháng 5 năm 2020 cũng nêu bật những lo ngại về "camming" trở nên phổ biến hơn khi những người hành nghề mại dâm chuyển sang các nền tảng trực tuyến trong đại dịch COVID-19.

      PARA 114: TikTok từ lâu đã biết rằng tặng quà ảo được sử dụng như một chiến thuật dụ dỗ săn mồi trên LIVE. TikTok đã thừa nhận nội bộ rằng "những kẻ phạm tội có xu hướng sử dụng các chiến thuật như tặng quà, nịnh hót và tặng tiền để giành được lòng tin của trẻ vị thành niên".

  • UT P. 38, PARA 125

    • In September 2022—five months after the Forbes story—an investigator found that “within minutes of browsing the [LIVE] feed” they were shown underage girls providing sexually suggestive content in exchange for money and young boys using filters to pose as girls to receive Gifts.

    • PARA 126: The investigator also found a “never-ending stream” of hosts who openly admitted that they were 14 and 15 years old while also “holding signs” or “standing in front of the camera” with a sign saying “Rose = say daddy,” “ice cream = 360 spin,” or “universe = cut shirt.”

UT P. 38, PARA 125

Vào tháng 9 năm 2022—năm tháng sau câu chuyện của Forbes—một điều tra viên phát hiện ra rằng "trong vòng vài phút sau khi duyệt nguồn cấp dữ liệu [LIVE]", họ đã thấy những cô gái vị thành niên cung cấp nội dung khiêu dâm để đổi lấy tiền và những cậu bé sử dụng bộ lọc để đóng giả làm con gái để nhận Quà tặng.

PARA 126: Điều tra viên cũng tìm thấy một "dòng không bao giờ kết thúc" những người dẫn chương trình thừa nhận công khai rằng họ 14 và 15 tuổi trong khi cũng "cầm biển báo" hoặc "đứng trước máy quay" với biển báo có dòng chữ "Rose = say daddy", "ice cream = 360 độ spin" hoặc "universe = cut shirt".

Harm Cluster 5: Knowledge of Harm and Underage Use, and Lack of Action

[Although TikTok, like other social media companies, has an age minimum of 13 for account creation (in the U.S.) and higher age limits for certain features (e.g., TikTok LIVE at 18), underage use is common and is widely known about by the company, which does little to enforce those age limits. TikTok also regularly claims that it has effective safety features built in for users. However, the briefs make it clear that TikTok’s primary goal is keeping users on and engaged for as long as possible, which often comes at the cost of child safety.]

Nhóm tác hại 5: Hiểu biết về tác hại và việc sử dụng khi chưa đủ tuổi, và thiếu hành động

[Mặc dù TikTok, giống như các công ty truyền thông xã hội khác, có độ tuổi tối thiểu là 13 để tạo tài khoản (ở Hoa Kỳ) và giới hạn độ tuổi cao hơn đối với một số tính năng nhất định (ví dụ: TikTok LIVE ở độ tuổi 18), việc sử dụng khi chưa đủ tuổi là phổ biến và được công ty biết đến rộng rãi, nhưng công ty không thực hiện nhiều biện pháp để thực thi các giới hạn độ tuổi đó. TikTok cũng thường xuyên tuyên bố rằng họ có các tính năng an toàn hiệu quả được tích hợp sẵn cho người dùng. Tuy nhiên, các bản tóm tắt nêu rõ rằng mục tiêu chính của TikTok là giữ chân người dùng và tương tác lâu nhất có thể, điều này thường gây ảnh hưởng đến sự an toàn của trẻ em.]

Kentucky Brief (KY)

  • KY P. 93, PARA 288 [REDACTED BUT RETRIEVABLE TEXT]

    • Similarly, in a chat message discussing features purporting to help users manage their screentime, a TikTok employee confirmed that the company’s “goal is not to reduce the time spent” on the TikTok app, but rather to ultimately “contribute to DAU [daily active users] and retention” of users.

        • Bản tóm tắt của Kentucky (KY)

      KY P. 93, MỤC 288 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]

      Tương tự, trong một tin nhắn trò chuyện thảo luận về các tính năng được cho là giúp người dùng quản lý thời gian sử dụng màn hình, một nhân viên của TikTok đã xác nhận rằng "mục tiêu của công ty không phải là giảm thời gian dành cho" ứng dụng TikTok mà là cuối cùng là "góp phần vào DAU [người dùng hoạt động hàng ngày] và duy trì" người dùng.

  • KY P. 93, PARA 289 [REDACTED BUT RETRIEVABLE TEXT]

    • Defendants also promote screen time management tools for Young Users that they know are ineffective. For example, an internal document seeking approval for the screentime dashboard noted that “we don’t expect significant impact to stay time with this feature since it is only improving awareness and is not an intervention.”

    • PARA 290: In fact, Defendants found—as expected—that the screen time dashboard did not affect Young Users’ usage because “minors do not have executive function to control their screen time.” The screentime dashboard did not appear to have any impact on the usage of minors.

  • KY P. 95, PARA 297, [REDACTED BUT RETRIEVABLE TEXT]

    • Defendants did not disclose that they knew effects like beauty filters can harm Young Users and did not implement the suggestions of employees that TikTok “provide users with educational resources about image disorders; create a campaign “to raise awareness on issues with low self esteem (caused by the excessive filter use and other issues)”; and add “a banner/H5 page to these filters and/or short videos which make use of the filters, particularly the Bold Glamour one, including an awareness statement about filters and the importance of positive body image/mental health, [that] could potentially minimize the negative public perception surrounding beauty filters and their reported effect on user mental health.”

Utah Brief (UT)

  • UT P. 37-38, PARA 121

    • In May 2022, after the Forbes article came out, TikTok took steps to evaluate how ‘valuable’ its underage LIVE hosts were before it would decide to make safety changes to the feature, like increasing the minimum age requirement from 16 to 18. It found 384,833 hosts were 16 to 17—as far as TikTok was aware—and they spent over seven million minutes streaming themselves on LIVE.

    • PARA 122: Despite learning that there were a ‘high’ number of underage hosts on the platform and that these minors were receiving problematic messages from adult users, TikTok waited six months before raising the minimum age for a user to host a LIVE session from 16 to 18.

    • PARA 123: But raising the minimum age from 16 to 18 did nothing to solve the problem. TikTok’s age-gating is ineffective, and many kids still join LIVE events daily. TikTok also chose to forgo reasonable safety measures, prioritizing profits over safety, allowing unrestrained transactional sexual content and other illicit activities to thrive.

    • PARA 124: As a result, these activities have not just continued—they have exploded as LIVE has become even more popular. In 2023, a TikTok senior director was alerted by advocates who had noticed an increase in ‘teens in overtly sexualized situations on live streams controlled by someone older than 18 who is collecting money from viewers while the teen performs sexually suggestive acts.’ The advocates said they reported the streams through TikTok’s internal reporting tools, but TikTok found they did not violate its policies.

  • UT P. 40, PARA 132

    • TikTok recognizes internally that its age-gating is ineffective and that TikTok’s own moderation efforts on LIVE are ineffective and inconsistently applied, and TikTok hides this information from users and the public. TikTok knows this is particularly true for children, admitting internally: (1) “Minors are more curious and prone to ignore warnings” and (2) “Without meaningful age verification methods, minors would typically just lie about their age.”

  • UT P. 37, PARA 119

    • Given how lucrative LIVE is for TikTok, the company slow-rolled implementing safety measures, and once it did, these measures proved largely ineffective at keeping pace with the growing popularity of LIVE. This was by design—LIVE was “such a huge part of the strategy for the [TikTok app]” that TikTok employees recognized they “d[id not] know” if they could “reasonably expect to increase limitations for LIVE” even in February 2022, and even after recognizing that “it is irresponsible [of TikTok] to expect that users will use LIVE wisely.”

    • PARA 120: In other words, LIVE was too profitable to be interfered with, even to protect children.

  • UT P. 44-45, PARA 145

    • These policies do not adequately safeguard children and, furthermore, are not consistently applied. In 2020, TikTok unveiled an ‘internal program’ to ‘protect creators and other accounts that [TikTok] deem to be high value.’ The program featured policy shortcuts like ‘delayed enforcement,’ ‘deferred policy decisions,’ or ‘no permanent ban on Elite + Accounts,’ to protect its popular users who violate TikTok’s policies. TikTok deployed this look-the-other-way policy despite knowing that the ‘majority of elite accounts appear to run afoul of [TikTok’s] policies on sexually explicit content,’ among other violations. Approximately 1,400 minors were considered ‘elite creators.’

Nebraska Brief (NE)

  • NE P. 58, PARA 187

    • To start, TikTok has no real age verification system for users. Until 2019, Defendants did not even ask TikTok users for their age when they registered for accounts. When asked why they did not do so, despite the obvious fact that “a lot of the users, especially top users, are under 13,” founder Zhu explained that, “those kids will anyway say they are over 13.”

  • NE P. 61, PARA 198

    • In another internal document, TikTok admitted that “user research” shows that “[f]amilies do not use Family Pairing” and that “Family Pairing doesn’t address parents’ top concerns,” including “inappropriate content, offensive interactions, and lack of privacy.

  • NE P. 65, PARA 211

    • Over the years, other of Defendants’ employees have voiced their frustration that “we don’t want to [make changes] to the For You feed because it’s going to decrease engagement,” even if “it could actually help people with screen time management.”

  • NE P. 65, PARA 212

    • Or as another employee put it, “[w]hen we make changes, we make sure core metrics aren’t affected.” This is because “[l]eaders don’t buy into problems” with unhealthy and compulsive usage, and work to address it is “not a priority for any other team.”

  • NE P. 65, PARA 213

    • As TikTok’s [redacted] candidly admitted in 2021, some of TikTok’s so-called “safety” features are little more than “good talking point[s].” Describing the “Take a Break” videos Defendants have promoted, explained that “[w]e found out through some research that they’re not altogether effective” but that “it’s good as a point to share with policymakers, ‘cause they’re kind of impressed that we’re spending time, money, and energy to get people off our platform, at least in theory.”

  • NE P. 65-66, PARA 214

    • Defendants, who admit internally that “screen time management” tools are “not . . . at expense of retention.” The goal is “not to reduce the time spent” but to “improve user experience and satisfaction” and ultimately “contribute to DAU [Daily Active Users] and retention.” According to internal documents, “[t]his aligns with leadership’s guidance” that there be “no impact to retention.”



KY P. 93, MỤC 289 [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]


Bị đơn cũng quảng cáo các công cụ quản lý thời gian sử dụng màn hình dành cho Người dùng trẻ mà họ biết là không hiệu quả. Ví dụ, một tài liệu nội bộ tìm kiếm sự chấp thuận cho bảng điều khiển thời gian sử dụng màn hình đã lưu ý rằng "chúng tôi không mong đợi tác động đáng kể nào sẽ kéo dài thời gian sử dụng tính năng này vì nó chỉ giúp nâng cao nhận thức chứ không phải là biện pháp can thiệp".


PARA 290: Trên thực tế, Bị đơn đã phát hiện ra rằng—như mong đợi—bảng điều khiển thời gian sử dụng màn hình không ảnh hưởng đến việc sử dụng của Người dùng trẻ vì "trẻ vị thành niên không có chức năng điều hành để kiểm soát thời gian sử dụng màn hình của mình". Bảng điều khiển thời gian sử dụng màn hình dường như không có bất kỳ tác động nào đến việc sử dụng của trẻ vị thành niên.


KY P. 95, PARA 297, [VĂN BẢN ĐÃ BỊ XÓA NHƯNG CÓ THỂ TRUY CẬP]


Bị đơn đã không tiết lộ rằng họ biết các hiệu ứng như bộ lọc làm đẹp có thể gây hại cho Người dùng trẻ và không thực hiện các đề xuất của nhân viên rằng TikTok "cung cấp cho người dùng các nguồn tài liệu giáo dục về các rối loạn hình ảnh; tạo một chiến dịch "để nâng cao nhận thức về các vấn đề liên quan đến lòng tự trọng thấp (do sử dụng bộ lọc quá mức và các vấn đề khác)"; và thêm "một biểu ngữ/trang H5 vào các bộ lọc này và/hoặc các video ngắn sử dụng các bộ lọc, đặc biệt là bộ lọc Bold Glamour, bao gồm tuyên bố nâng cao nhận thức về các bộ lọc và tầm quan trọng của hình ảnh cơ thể tích cực/sức khỏe tinh thần, [điều đó] có khả năng giảm thiểu nhận thức tiêu cực của công chúng xung quanh các bộ lọc làm đẹp và tác động được báo cáo của chúng đối với sức khỏe tinh thần của người dùng".


Utah Brief (UT)

UT P. 37-38, PARA 121


Vào tháng 5 năm 2022, sau khi bài báo của Forbes được đăng, TikTok đã thực hiện các bước để đánh giá mức độ "có giá trị" của những người dẫn chương trình TRỰC TIẾP dưới tuổi thành niên trước khi quyết định thực hiện các thay đổi về tính năng an toàn, chẳng hạn như tăng yêu cầu về độ tuổi tối thiểu từ 16 lên 18. TikTok phát hiện ra rằng có 384.833 người dẫn chương trình từ 16 đến 17 tuổi - theo như TikTok biết - và họ đã dành hơn bảy triệu phút để phát trực tiếp trên TRỰC TIẾP.


PARA 122: Mặc dù biết rằng có một số lượng "cao" người dẫn chương trình dưới tuổi thành niên trên nền tảng này và những trẻ vị thành niên này đang nhận được tin nhắn có vấn đề từ người dùng trưởng thành, TikTok đã đợi sáu tháng trước khi tăng độ tuổi tối thiểu để người dùng có thể tổ chức phiên TRỰC TIẾP từ 16 lên 18.


PARA 123: Nhưng việc tăng độ tuổi tối thiểu từ 16 lên 18 không giải quyết được vấn đề gì. Việc giới hạn độ tuổi của TikTok không hiệu quả và nhiều trẻ em vẫn tham gia các sự kiện TRỰC TIẾP hàng ngày. TikTok cũng đã chọn cách từ bỏ các biện pháp an toàn hợp lý, ưu tiên lợi nhuận hơn sự an toàn, cho phép nội dung khiêu dâm giao dịch không bị hạn chế và các hoạt động bất hợp pháp khác phát triển mạnh.


PARA 124: Do đó, các hoạt động này không chỉ tiếp tục mà còn bùng nổ khi LIVE trở nên phổ biến hơn nữa. Vào năm 2023, một giám đốc cấp cao của TikTok đã được những người ủng hộ cảnh báo khi nhận thấy sự gia tăng "thanh thiếu niên trong các tình huống khiêu dâm công khai trên các luồng trực tiếp do một người trên 18 tuổi kiểm soát, người này đang thu tiền từ người xem trong khi thanh thiếu niên thực hiện các hành vi gợi dục". Những người ủng hộ cho biết họ đã báo cáo các luồng thông qua các công cụ báo cáo nội bộ của TikTok, nhưng TikTok thấy rằng chúng không vi phạm chính sách của mình.


UT P. 40, PARA 132


TikTok thừa nhận trong nội bộ rằng việc giới hạn độ tuổi của mình là không hiệu quả và các nỗ lực kiểm duyệt của riêng TikTok trên LIVE là không hiệu quả và được áp dụng không nhất quán, và TikTok đã che giấu thông tin này khỏi người dùng và công chúng. TikTok biết điều này đặc biệt đúng đối với trẻ em, thừa nhận trong nội bộ: (1) “Trẻ vị thành niên tò mò hơn và có xu hướng bỏ qua các cảnh báo” và (2) “Nếu không có phương pháp xác minh độ tuổi có ý nghĩa, trẻ vị thành niên thường chỉ nói dối về độ tuổi của mình”.


UT P. 37, PARA 119


Do LIVE có lợi nhuận như thế nào đối với TikTok, công ty đã triển khai chậm các biện pháp an toàn và một khi đã triển khai, các biện pháp này tỏ ra phần lớn không hiệu quả trong việc theo kịp mức độ phổ biến ngày càng tăng của LIVE. Điều này là do thiết kế—LIVE là “một phần rất lớn trong chiến lược của [ứng dụng TikTok]” đến nỗi các nhân viên TikTok nhận ra rằng họ “không biết” liệu họ có thể “mong đợi hợp lý để tăng giới hạn cho LIVE” ngay cả vào tháng 2 năm 2022 hay không, và thậm chí sau khi nhận ra rằng “việc [TikTok] mong đợi rằng bạn