Mendez är doktorand i befolkningshälsovetenskap vid Harvard T. H. Chan School of Public Health och en offentlig röststipendiat med OpEd Project och Academy Health.
Under en het senatens rättsutskottsutfrågning den 31 januari talade en tvådelad grupp lagstiftare om den skada som barn utsätts för på plattformarna Meta, TikTok, Snap, X och Discord. Han fördömde ledarna och hotade att införa restriktioner för dem stänger sina företag. Att döda människor.
Jag hoppas att detta ögonblick förebådar en meningsfull politisk förändring. Men jag är pessimistisk. Vi har varit här förut. Tidigare kongressutfrågningar på sociala medier har täckt ett antal områden, inklusive valinblandning, extremism och desinformation, nationell säkerhet och integritetskränkningar. Även om energin bakom den här senaste utfrågningen är uppmuntrande, är resultaten av passivitet från våra valda tjänstemän nedslående. Vi är dömda att upprepa samma skada. Nu när vi har gått in i en ny era av artificiellt genererad media är skadan ännu större.
Ett lagförslag som får uppmärksamhet i kölvattnet av denna utfrågning är Kids Online Safety Act, som skulle kräva att sociala medieplattformar ger minderåriga möjlighet att välja bort personliga rekommendationssystem och helt ta bort sina personuppgifter. Det kräver tillhandahållande av en mekanism för att göra det. Kongressen måste sikta högre än att bara skydda människor från dessa metoder tills de fyller 18 år. Förtroendevalda måste vara villiga att följa de djärva påståenden de gör på den nationella scenen. Kommer de verkligen att reglera Meta och X och lägga dem i konkurs? Kommer de faktiskt att agera som om människors liv står på spel?
Anmäl dig till Fulcrums nyhetsbrev
Om du tycker att det är extremt, se bara tillbaka på de senaste åren. 2020 marknadsfördes hydroxiklorokin ovetenskapligt på sociala medier som en behandling för covid-19, vilket ledde till hundratals dödsfall bara i maj och juni 2020. Mellan maj 2021 och september 2022 kunde 232 000 liv ha räddats i USA genom att ta vaccinet mot coronaviruset, men alldeles för många människor lider av spridningen av desinformation på sociala medier. Jag dukade under för I augusti 2022 mötte Boston Children’s Hospital en våg av trakasserier och bombhot efter en smutskastningskampanj på sociala medier. Att skydda barn från skadorna från sociala medier inkluderar verkligen att ta itu med skadorna av medicinsk desinformation som kan leda till död och våld.
Som folkhälsoforskare är jag känslig för högprofilerad medicinsk desinformation. Men skadan från dess spridning sträcker sig bortom fysisk hälsa och hotar vår demokratis välbefinnande. Antivetenskap har nu blivit en livskraftig politisk plattform för att distrahera från behoven hos politiskt marginaliserade grupper. Husförhören förra sommaren fokuserade på avslöjda konspirationsteorier om coronaviruset som försökte tvivla på ledande virologers forskningsmetoder. Att omformulera dessa konspirationsteorier kommer inte att förhindra de långsiktiga konsekvenserna av covid-19-pandemin, inklusive de långsiktiga ekonomiska kostnaderna för covid-19 och ökad dödlighet från covid-19 på landsbygden och BIPOC-samhällen. Ingenting kan göras åt konsekvenserna . Integreringen av anti-vaccinationsrörelsen i amerikansk politik hotar att förvärra de nuvarande skillnaderna i andra virussjukdomar, inklusive ökade sjukhusvistelser för influensa i folkräkningsområden med höga fattigdomsnivåer.
Medan medicinsk desinformation ger upphov till politiskt kaos, överlappar den också väljarförtryck. Detta innebär att samhällen som upplever negativa effekter nedströms också har mindre röst när det gäller att hålla förtroendevalda ansvariga. Många landsbygdsväljare förlitar sig på förtidsröstning, brevröstning och registrering samma dag, som alla har utsatts för attacker de senaste åren. Strängare krav på väljar-ID kommer att påverka färgsamhällen oproportionerligt mycket. Detta utöver det grundläggande sambandet mellan dålig hälsa och lågt valdeltagande.
Det är kanske inte förvånande därför att denna utfrågning i sociala medier inte lovar en förändring av den nuvarande balansen av sociala mediers förmåner för vården. De potentiella väljare som berörs mest av dessa frågor har redan tappat rösten i valpolitiken. Dessa inbördes relaterade frågor kommer därför att fortsätta växa eftersom verktyg för artificiell intelligens lovar att översvämma sociala nätverk med en ännu mer enorm mängd innehåll, ytterligare förbättrat för att öka algoritmisk upptäckbarhet. Det är troligt att detta kommer att öka under de närmaste åren. Eran av robotar som pratar med robotar har kommit, och vi människor kommer också att uppleva sidoskador från reklamförsäljning.
Den senaste uppgången av ChatGPT-appens ekosystem har oroande ekon som påminner oss om ett kärnproblem för sociala medieföretag. En ChatGPT-plugin ger uppdaterad information om regionala hälsorisker för luftvägssjukdomar i USA. Ett annat verktyg hjälper användare att söka efter kliniska prövningar, och ett annat verktyg hjälper användare att förstå behörighetskriterier. Vissa webbplatser erbjuder dessutom mer allmän medicinsk information och mer personliga näringsinsikter. Strunt i att du inte vet källan till de uppgifter som driver deras svar eller varför de innehåller viss information framför andra. Eller så kanske vi inte vet hur informationen de ger oss kommer att skräddarsys baserat på vår chatthistorik eller språkval. Det räcker inte att ChatGPT-promptfönstret varnar dig: ”ChatGPT kan göra misstag. Överväg att granska viktig information.”
Men teknikindustrins ledare vill ha sin kaka och äta den också, och förtroendevalda verkar nöjda med status quo. Sociala medier och artificiell intelligens är positionerade som transformativa verktyg som förbättrar våra liv och förbinder människor genom att dela information. Ändå är teknikföretag inte ansvariga för den information som människor möter där, som om alla mänskliga beslut som är involverade i plattformsdesign, datavetenskap och innehållsmoderering inte spelar någon roll. Det räcker inte med sociala medieföretag att ibland inkludera en ansvarsfriskrivning med sitt innehåll.
Teknikföretag förändrar världen, men vi bör tro att de inte har makten att ingripa. Som individer bör vi tro att vi är ytterst ansvariga för företagens förluster på flera miljarder dollar.
Det är bara en tidsfråga innan en ny våg av mänskliga och syntetiska influencers dyker upp, som utnyttjar AI-genererade skript och bilder för att driva innehåll i ännu snabbare hastigheter. Att fokusera på att skydda barn från dessa produkter är inte tillräckligt för att skydda dem från skadan av extremistiskt innehåll och desinformation. Bara det kanske inte är tillräckligt för att skydda vuxna från de korsande problemen med medicinsk desinformation, politisk desinformation och väljarförtryck.
Som flera kongressutfrågningar har påmint oss, kostar sociala medieföretags underliggande design och vinstmotiv redan liv och hindrar den offentliga debatten. De har redan lett till mobbning, extremism och massdesinformation. De blandar sig redan i valen. Vi behöver och förtjänar grundläggande policyförändringar kring sociala medier och AI av en intensitet och bredd som är jämförbar med den känslomässiga intensiteten i denna utfrågning. Vi förtjänar mer än en teater för namn och offentlig tillrättavisning.
Från en artikel på din webbplats
Relaterade artiklar på webben