Det har alltid varit svårt att känna sig trygg på internet som en queer person. Och med en snabbt föränderlig digital värld verkar saker och ting bli mer och mer komplexa.
För mig kom framväxten av AI (artificiell intelligens) ur tomma intet. Jag visste ingenting om ämnet, men sedan översvämmades mitt flöde av chatbot-skärmkapslar, djupt falskt drama och genererade musikvideor.
Relaterad:
Naturligtvis väcker allt detta frågan, vad exakt är AI? Även om det har kommit långt de senaste åren har vi också använt förenklade versioner i många år.
Dyk djupare varje dag
Gå med i vårt nyhetsbrev för tankeväckande kommentarer som sträcker sig bortom ytan av HBTQ+-frågor.
Enkelt uttryckt är artificiell intelligens ”intelligens” som utövas av maskiner som kan spegla mänskliga förmågor: förmågan att lära, läsa, skriva, skapa och analysera.
Självklart ifrågasätts just denna definition när man betänker att AI är tränad på befintliga datauppsättningar, vilket innebär att allt som maskinen ”skapar” återuppstår från tidigare kunskaper. Om du till exempel använder det populära verktyget ChatGPT och ber dem att skriva originalberättelser kommer de att göra sitt bästa, men det vore oklokt att publicera dessa verk. Detta beror på att det sannolikt återspeglar tidigare publicerat upphovsrättsskyddat material.
I vissa fall kan AI vara till hjälp. Det finns redan störningar i arbetsstyrkan eftersom arbetsgivare väljer AI för att skapa innehåll snabbare än människor (men ofta med lägre kvalitet). AI används inom medicinsk forskning och andra STEM-områden. AI kan avsevärt minska den tid det tar för individer att bearbeta stora mängder data.
Tyvärr kan egenskaperna som gör AI väldigt användbar i vissa situationer också vara mycket skadliga i andra. När jag först upptäckte AI bildbehandling och bildöverföringsverktyg inkluderade jag några av mina egna bilder av nyfikenhet. Exakta resultat erhölls i de flesta fall. Beskrivningarna inkluderar ”en ung man med rosa hår” och ”en man i mitten av tjugoårsåldern med ett lätt leende”.
Men när du ber AI att generera bilder av transpersoner är resultaten skrämmande och oroande.
Soulojit Ghosh, en forskare inom människocentrerad systemdesign, har upptäckt ett alarmerande problem med hur bildprocessorn Stable Diffusion konceptualiserar personlighet. ”Denna lag anser att icke-binära människor är de minst mänskliga eller längst bort från den definitionen av ”människa”.
Ghosh sa att när Diffusion blir ombedd att skapa bilder av människor med uppmaningar som ”icke-binära”, är programmet förvirrande och skapar ofta gigantiska bilder av mänskliga ansikten som inte har någon likhet med riktiga människor. Han påpekade att han hade skapat en fusion. På samma sätt förvirrar AI:n att skriva in prompten ”transman” eller ”transkvinna”, vilket ger alltför sexualiserade bilder trots neutrala uppmaningar, eller får transpersoner att se äckliga ut. Du kan sluta med en pinsamt stereotyp version av dig själv.
Ännu mer oroande för många transpersoner och/eller icke-binära individer är den växande pushen för AI-programvara för ansiktsigenkänning. Mjukvara för ansiktsanalys används i allt större utsträckning för marknadsförings- och säkerhetsändamål. Som om idén med kameror som skannar ditt ansikte för användning i marknadsföringsstatistik inte var tillräckligt oroande, är det oklart vad detta betyder för transpersoner.
”Vi fann att ansiktsanalystjänster konsekvent fungerade dåligt för transpersoner och i allmänhet inte kunde klassificera icke-binära kön”, säger huvudförfattaren och University of Colorado, säger Morgan Klaus Scheuermann, doktorand vid School of Information Sciences. ”Det finns många olika typer av människor i världen, och dessa system har en väldigt begränsad syn på hur kön ser ut.”
Forskare samlade in 2 450 ansiktsbilder från Instagram. Bilderna delas sedan in i sju grupper med 350 bilder (#kvinnor, #man, #transkvinnor, #transman, #agender, #agenderqueer, #nonbinary) och analyseras sedan av fyra av de största ansiktsanalystjänsterna (IBM , Amazon). , Microsoft, Clarify).
Både ciskönade män och kvinnor hade höga noggrannhetsgrader, med 98,3 % av ciskvinnorna och 97,6 % av cismännen identifierade sig efter sitt kön.
Men för dem utanför Cisco började systemet stöta på ytterligare hinder. Transmän blev felidentifierade som kvinnor upp till 38 % av tiden. Människor som identifierar sig som agender, genderqueer eller icke-binära (vilket indikerar att de identifierar sig som varken manliga eller kvinnliga) blev felkaraktäriserade 100 % av gångerna.
”Dessa system riskerar att förstärka stereotyperna om hur du ska se ut om du vill bli erkänd som man eller kvinna, och det påverkar alla”, sa Schuurman.
När mjukvara för ansiktsanalys blir allt mer populär är det oklart hur transpersoner kommer att påverkas. Jag är en orolig av naturen, men mitt sinne kan inte låta bli att tänka på värsta scenarier. Kan jag misslyckas med säkerhetsgranskningen eftersom den inte matchar könet på mitt ID-kort?
Det är redan väldokumenterat att transpersoner möter fler svårigheter vid säkerhetskontroller och kan få hård kritik om något verkar ”onormalt” med deras fysiska utseende. Ett anmärkningsvärt exempel på detta är överfallet på Megan Beasley, en transkvinna som blev olämpligt kontaktad av TSA på Raleigh-Durham International Airport och bad om ytterligare identifiering (den här historien Det var mycket bekant för mig när jag växte upp i Durham (och en av skälen till att jag drev på att flytta ut ur staten var den ökande förekomsten av queer hatbrott).
När den här programvaran släpps, kommer någon att kunna ange en aktuell bild av mig och hitta tidigare bilder av mig innan övergången vardagen som ens valda könsidentitet utan att tydliggöra att man har övergått) tycks vara i fara, eftersom det finns en möjlighet till ett könsbyte. Vem kommer att använda denna programvara?
Det är tydligt att ytterligare arbete krävs innan dessa program är i allmänt bruk. När allt kommer omkring är varje system som inte korrekt kan identifiera hela grupper av människor minst sagt bristfälligt.