Forskare diskuterar behovet av federal reglering för att bekämpa risker förknippade med teknik inom hälso- och sjukvården.
De flesta vuxna i USA använder teknik för att förbättra sin hälsa. Nästan 60 % surfar på internet efter medicinsk information och mer än 40 % får behandling genom telemedicin. Men trots löftet om teknologiaktiverad sjukvård är 6 av 10 amerikaner obekväma med att deras vårdgivare förlitar sig på AI för att diagnostisera sjukdomar och rekommendera behandlingar.
AI kan förbättra kvaliteten på sjukvården genom att hjälpa läkare att verifiera diagnoser och upptäcka sjukdomar tidigare. Forskare har till exempel funnit att AI-teknik kan hjälpa till att förutsäga en patients risk för bröstcancer. På samma sätt kan en kombination av läkarexpertis med AI-algoritmer förbättra diagnostiknoggrannheten.
Men AI-system kan misslyckas, och om människor blir alltför beroende av programvaran kan ett grundläggande fel i en algoritm resultera i att fler patienter skadas än ett enskilt läkares fel. Dessutom innehåller AI-algoritmer fördomar från tillgänglig data. Till exempel får svarta patienter i genomsnitt färre smärtstillande mediciner än vita patienter. En algoritm som utbildats för att rekommendera smärtbehandlingar från dessa journaler kan föreslå lägre doser av smärtstillande medicin för svarta patienter, oavsett deras biologiska behov.
Samtidigt kan tekniken hjälpa underbetjänade samhällen att få tillgång till hälsovård. Dessa samhällen saknar ofta utbildade läkare och vanliga medicinska faciliteter, vilket ökar risken för sjukdom och feldiagnostik. Till exempel ökar telemedicin tillgången till kvalitetsvård genom att låta patienter träffa sina läkare online och övervaka deras livsviktigheter på distans.
För närvarande finns det inga federala lagar som reglerar användningen av AI inom vården. U.S. Food and Drug Administration (FDA) granskar de flesta produkter som använder teknologi eller AI-programvara för patienter, men har ännu inte fastställt om användningen av AI i sjukvården är säker för patienter. Istället godkänner FDA AI-aktiverade enheter genom en process som kallas 510(k) granskning. Under en 510(k) granskning måste tillverkare visa att deras teknik är ”i huvudsak likvärdig” med produkter som redan finns på marknaden. Denna process gör att AI-aktiverade enheter kan godkännas även om de inte är bevisade säkra eller korrekta i kliniska prövningar.
Förra året lovade Biden-administrationen att övervaka den ansvarsfulla utvecklingen av AI, inklusive inom hälsorelaterade områden. President Joseph R. Bidens verkställande order om detta ämne innehåller ett krav på att vårdgivare ska meddela användare om innehåll som tillhandahålls av dem genereras av AI och inte har granskats av en läkare. Dessutom är vårdgivare ansvariga för att minska de potentiella riskerna som tekniken utgör och se till att tekniken utökar tillgången till vård.
Medicinska experter har också uttryckt oro över att ungdomar självdiagnostiserar tillstånd, vilket påverkare som marknadsför telemedicin på sociala medier diskuterar. För närvarande kräver inte FDA att telemedicinföretag avslöjar information om de potentiella riskerna med deras tjänster, och som ”annonsörer” åtnjuter företagen yttrandefrihet.
Förespråkare för mer reglering av teknik inom det medicinska området säger att telehälsoleverantörer undviker reglering genom att klassificera sig själva som kommunikationsplattformar som kopplar samman patienter och läkare, snarare än leverantörer av medicinska tjänster. Telemedicinföretag upprätthåller oberoende från vårdgivare, vilket gör att de kan undvika juridiskt ansvar för vårdgivares handlingar.
Vid detta lördagsseminarium ger akademiker en rad förslag för att reglera användningen av teknik inom vården.
- AI-algoritmer är i sig partiska, men det finns inga federala bestämmelser som tar itu med risken för partiska diagnoser när AI används inom medicin, säger Natalie Shen, en nyutexaminerad från Seattle University School of Law, i en tidningsartikel. Seattle Technology Journal, Environmental and Innovation Law. Shen förklarar att i avsaknad av federala åtgärder tar delstaterna ledningen när det gäller att anta lagar för att ta itu med AI och andra automatiserade beslutssystem inom hälso- och sjukvårdssektorn. Genom att analysera New Jersey och Kaliforniens tillvägagångssätt, föreslår Shen att framtida lagar skulle kunna inkludera att utöka täckningen till den privata sjukförsäkringssektorn och införa kontinuerliga utvärderingskrav när AI-tekniken utvecklas, rekommenderar förbättringar av framtida statliga lagar.
- I artikeln Virginia Law Review, Chiara M. Bridges från Berkeley Law School hävdar att det bör vara en förutsättning att utbilda patienter om riskerna för partiskhet från rasbaserade algoritmer innan man använder AI i vården. Bridges förklarar att färgade människor är mer benägna att lita på läkare och vårdgivare, och därför är mer benägna att vara skeptiska till medicinsk AI. Dessutom utvecklas medicinska algoritmer baserade främst på vita ”allmänna populationer”, sa Bridges, vilket gör deras förutsägelser mindre exakta för färgsamhällen. Hon tror att avslöjande av AI-relaterade risker kommer att främja dialogen mellan patient och läkare i färgsamhällen, uppmuntra fler färgade patienter att använda tekniken och i slutändan förbättra befintliga. De hävdar att algoritmiska fördomar kommer att korrigeras.
- Reglering av AI-aktiverade hälsoverktyg måste inkludera godkännande före marknaden och pågående prestandaövervakningsprocesser, säger Joana Gonçalves-Sá från Complexity Science Hub och Flavio Pinheiro från NOVA Information Management School i nästa kapitel. Jag efterfrågar starkt detta. Tvärvetenskapliga perspektiv på artificiell intelligens och juridik. Gonçalves-Sá och Pinheiro föreslår förbättringar av Total Product Lifecycle, FDA:s pilotprogram som spårar AI-säkerhetsrisker. Enligt programmet kan AI-företag uppnå ”förkvalificeringsstatus” om de kan visa att de kan utveckla högkvalitativa algoritmer och kontinuerligt övervaka deras effektivitet efter att ha kommit in på marknaden, förklarar Gonçalves-Sa och Pinheiro. Gonçalves-Sa och Pinheiro rekommenderar att FDA också undersöker tillförlitligheten hos de datauppsättningar och ingenjörer som tränar AI-verktyg.
- I en ny artikel hävdar Maegan Parker från University of Chicago Law School att juridiska barriärer bör sänkas för att förhindra samhällsorganisationer som svarta kyrkor från att hjälpa fattiga och marginaliserade människor att få tillgång till telehälsotjänster, säger Megan Parker från University of Chicago Law School. Colombiansk vetenskap och teknologilag granskning. Parker sa att samhällsorganisationer som svarta kyrkor kan hjälpa vissa människor att övervinna misstro mot vårdgivare, men när svarta kyrkor är inblandade kan det leda till en konflikt mellan kyrkans tro och patientens medicinska behov. Han påpekar att det finns en möjlighet att det kan finnas en motsättning mellan de två, och att kyrkan kan hållas ansvarig för medicinsk felbehandling. Som svar föreslog professor Parker att man slappnar av eller justerar regleringsbarriärer för att säkerställa att kyrkor inte står inför etiska konflikter eller juridiskt ansvar när det gäller att koppla människor till nödvändiga telehälsotjänster.
- I PM till Washington Journal of Law, Technology & Arts, Caitlin Campanini, en student vid Pace Universitys Elizabeth Haub School of Law, hävdar att U.S. Drug Enforcement Administrations slappa regler för telehälsovårdsleverantörer förvärrar otillräcklig mentalvård och ökar överdriven läkemedelsförskrivning. Medan telemedicinska leverantörers affärsmodeller kan göra behandlingen mer bekväm och överkomlig, begränsar de snabbvårdsmodeller de erbjuder ”leveransen av hälsovård till patienter och försäljningen av kontrollerade substanser till kunderna.” Detta beror på att sådana företag hamnar i en reglerad gråzon. De hävdar att de är oberoende av vårdgivare och vägrar att tillhandahålla medicinska tjänster. Men de marknadsför aggressivt stimulantia till konsumenter och underlättar tvivelaktiga recept efter en kort virtuell utvärdering.
- I ett färskt memo, Belmont Law Review, Demokratisk kandidat för domstolen, Nora Klein, hävdar att tillsynsmyndigheter bör täppa till kryphål i lagen som tillåter direkt-till-konsument (DTC) läkemedelsföretag att onödigt påverka användare av sociala medier. Klein påpekar att läkemedelsföretag som är direkt till konsumenter kringgår FDA:s reklambestämmelser delvis genom att märka sig själva som företag utan FDA:s tillsynsmyndighet. Därför är dessa enheter endast föremål för FTC:s reklambestämmelser, som är svåra att upprätthålla, noterade Klein. Hon hävdar att DTC-modellen är skadlig eftersom den är mer sannolikt att orsaka feldiagnostik och patientkomplikationer än traditionella medicinska tjänster. För att ta itu med denna fråga föreslår Klein att FDA kräver att DTC-läkemedelsföretag avslöjar viktig läkemedelsinformation till konsumenter.
Lördagsseminarium är en veckofunktion utformad för att dokumentera innehåll som levereras i liveseminarier med tillsynsexperter. varje vecka, Översyn av föreskrifter Publicera en kort översikt över det valda regleringsämnet och extrahera ny forskning och akademiska artiklar om ämnet.