Американцы используют чат-ботов, чтобы оспорить счета за медицину. Получается не всегда успешно

Хотя такие чат-боты как Claude и ChatGPT могут помочь пациентам чуть лучше понять поставщиков медицинских услуг, но они также могут усугубить недопонимание. Пациенты используют ботов, чтобы оспорить выставляемые им счета от госпиталей и страховых компаний. Иногда, такие запросы успешны, но не всегда. Критики отмечают, что боты не спрашивают ключевой информации или не сообщают важной информации, в результате пациенты должны сами додумывать, что делать. Юристы заявляют, что чтобы получить хороший совет от бота, нужно задать правильный вопрос и разбираться в страховании и как работают поставщики медицинских услуг. А к ботам обращаются чаще те, кто не обладают такими знаниями и не могут себе позволить нанять юриста. Критики также напоминают, что ИИ боты не обязаны соблюдать закон о защите медицинских данных пациентов. Все, что пользователи грузят в ИИ бот, не защищено федеральным законом.

Чат-боты становятся обыденностью в медицинском обслуживании. Пациенты используют их не только, чтобы составить список вопросов для визита к врачу или расшифровать результаты исследований, но также для анализа медицинских расходов и оспаривания выставляемых им счетов.

Jackie Davalos, 34 года, получила сообщение от коллекторов, что должна $22 604 госпиталю за оказание срочной медицинской помощи после того, как упала с лестницы два года назад. Ее партнер Walter Kerr обратился к чат-боту Claude, чтобы разобраться с этим счетом.

Walter, 39 лет, - топ менеджер НКО. Он заявил, то чат-бот дал ему хороший совет, но «не совершенный».

Все больше американцев используют ИИ, чтобы оспорить выставляемые медицинские счета

Стоимость медицинских услуг в Америке является предметом беспокойства номер один. Все больше пациентов обращаются к таким чат-ботам как Claude или ChatGPT, чтобы бесплатно попытаться разобраться с счетами или страховкой. American Hospital Association даже уведомила своих членов, что все больше американцев используют ИИ, чтобы оспорить выставляемые счета.

Поставщики медицинских услуг и страховщики используют ИИ с целью максимизации прибыли (за счет увеличения счетов пациентам) и поиска причин для отклонения оплаты счетов за медицину.

Чат-боты предлагают пользователям способы дать отпор страховым компаниям и поставщикам услуг. Критики предупреждают, что инструменты ИИ могут давать фейковые советы, особенно, если пользователи являются неопытными пользователями ИИ ботов или не понимают, как работает медицинская система. Критики отмечают, что чат-боты не регулируются федеральным законом о медицине (Health Insurance Portability and Accountability Act или HIPAA).

Чат-боты могут объяснить пациентам их права и предложить возможности, где получить помощь по счетам. Критики все же отмечают, что боты не спрашивают ключевой информации или не сообщают важной информации, в результате пациенты должны сами додумывать, что делать.

Техно компании заявляют, что текущие модели сложные и справляются с большинством проблем, на которые указывают критики.

OpenAI, разработчик ChatGPT, заявил, что новые модели ИИ ботов «обучили тщательно проверять данные и запрашивать дополнительную информацию».

Результат обращения к боту: «Мы можем выиграть» у страховой и оспорить счета

Jackie Davalos заявила, что никогда не получала счетов от госпиталя George Washington University Hospital в Вашингтоне, где ей оказали медицинскую помощь. Она была отмечена как незастрахованная. Jackie Davalos работала кондитером и была напугана этой историей, так как этот долг мог помешать ей купить дом.

Семейная пара оспорила сумму от головной компании госпиталя - Universal Health Services, которая отправила им счета.

Компания сняла претензии, но потребовала оплаты части счета.

В июле прошлого года Walter Kerr загрузил счета своей партнерши в чат-бот Claude. Он попросил бота выяснить, какие есть варианты защиты от счетов.

Claude предложил несколько вариантов, в том числе то, что госпиталь не исполнил юридические условия в части долга и страховки.

Предложения бота вдохновили Walter. Он и Jackie Davalos поняли, что могут оспорить счет.

Walter Kerr: «Впервые мы почувствовали, что можем выиграть».

Walter Kerr написал в госпиталь и Universal Health Services, следуя советам бота, требуя аннулировать счет. Позже счет был аннулирован.

Хотя Walter Kerr выиграл в диспуте, но советы чат-бота могли быть не совсем корректными.

Исследования показывают, что боты часто ошибаются, отвечая на юридические вопросы

Ariel Levinson-Waldman, президент НКО Tzedek DC в Вашингтоне, проанализировал этот случай и заявил, что часть ответов Claude была корректной. Но чат-бот неправильно разобрался в законе о долгах и страховке, на которые он ссылался, и не дал других вариантов решения проблемы.

Ariel Levinson-Waldman отметил, что в ответах Claude было сказано, что госпиталь не соответствует закону о долгах, но госпиталь не является субъектом этого закона.

George Washington University и Universal Health Services заявили, что согласно федеральному законодательству они не могут сообщить информацию о деле Jackie Davalos. Susan LaRosa, представитель госпиталя, признала, что была «совершена ошибка», когда Jackie попала в госпиталь.

Госпиталь аннулировал долг, как только получил корректную информацию. Кредитная история Jackie Davalos не пострадала.

Maria English, представитель Universal Health Services, отметила, что долг был аннулирован после «выяснения всех обстоятельств».

Советы бота, которые путают

Andrew Cohen, адвокат в НКО Health Law Advocates: чтобы получить от бота корректный ответ, нужно правильно задать вопрос или обладать достаточными знаниями о страховании. В результате многие люди могут не получить правильный ответ.

Michelle Maziar, 46 лет,- консультант по вопросам миграции в Атланте. Она пыталась получить совет у ChatGPT в июле: как вернуть $3 140 от страховой компании Anthem за медицинские услуги.

В марте 2023 года Anthem согласилась покрыть ее расходы за лечение бесплодия, но деньги так и не поступили на счет Michelle. Она обратилась за помощью к ChatGPT. Бот описал шаги, которые она уже сделала: поговорить с менеджером или обратиться к комиссару штата по страховым вопросам (ей этот совет казался тупиком).

Michelle Maziar: «Меня это обескуражило».

Она не имела возможности оплатить услуги адвоката и прекратила попытки получить деньги.

Недавно Michelle повторила свой запрос в ChatGPT. Nicole Broadhurst, профессиональный юрист, проанализировала ответы бота и нашла их адекватными.

ИИ боты хорошо анализируют документы и переводят с жаргона на понятный язык, но им не хватает навыков рассуждения в сложных случаях

Тем не менее, юрист отметила, что бот упустил важный шаг: проверить, кто был владельцем страховки Michelle. Бывший работодатель Michelle – город Атланта, у которого есть свой страховой комиссар. Поэтому обращение к комиссару штата смысла не имело.

Janey Kiryluik, представитель Anthem, заявила изданию The Times, что выплата возмещения Michelle не произошла из-за ошибки. Ошибку исправили, и Michelle получила возмещение.

Nicole Broadhurst отметила, что чат-боты хорошо анализируют документы и переводят с жаргона на понятный язык, но им не хватает навыков рассуждения в сложных случаях.

Критики заявляют, что ИИ бот может ввести в заблуждение уязвимых пациентов

В июле прошлого года Maria Vanegas, одинокая мать и организатор в комьюнити, обратилась к ChatGPT после того, как госпиталь Medical City Dallas Hospital выставил ей счет в размере $3 930 за обращение по скорой. Такую сумму она не могла заплатить.

Чат-бот посоветовал ей проверить счет. Мысль оспорить счет была для нее неожиданной. «Я просто боялась. Я ведь не разбираюсь в медицине».

Бот посоветовал ей поискать финансового советника. Часто госпитали предлагают такие программы для снижения суммы счета или его отмены. Maria Vanegas решила, что у нее нет достаточных оснований для этого. Она не понимала, может ли она на такое рассчитывать.

НКО помогла пациенту аннулировать счет от госпиталя

Измученная такими данными, она решила оставить попытки аннулировать счет. В самом конце бот упомянул про организацию Dollar For, НКО, помогающую оплатить медицинские счета. Она связалась с НКО, и ей помогли аннулировать счет.

Jared Walker, основатель Dollar For, недавно протестировал ChatGPT вопросами, схожими с вопросами Maria. ИИ предложил обратится за финансовой помощью как пункт номер два. По мнению Jared Walker, это оставляет многие семьи без важного источника помощи в борьбе с медицинскими счетами.

Emma Philips, представитель Medical City Dallas Hospital, отказалась от комментариев по случаю Maria Vanegas. Она отметила, что недавно пациенты стали получать документы о финансовой ответственности при регистрации в госпитале. Их консультируют о возможности поддержки.

Представитель OpenAI заявил, что текущие модели ботов задают больше вопросов, чем более ранние версии ботов.

Риски для приватности пациентов: ИИ компании не соблюдают закон о защите медицинских данных пациента

Пациенты, которые загружают в ИИ боты свою медицинскую информацию, передают свои данные копаниям, которые не подлежат регулированию в защите медицинских данных пациентов.

В отличие от госпиталей и страховщиков ИИ компании не соблюдают закон HIPAA (закон о защите медицинских данных пациента). Они имеют право соблюдать свою политику конфиденциальности. Информация, которую пользователь передает боту, не защищена как во время визита к врачу, поэтому информацию легко использовать в судах и различных спорах.

Недавно OpenAI и Anthropic пообещали, что не будут тренировать свои модели на медицинских данных, и что они хранят эти данные отдельно. Но меры защиты таких данных доступны только платным пользователям.

Jennifer King, исследователь по защите данных из Стэнфорда, призывает к дополнительным мерам защиты данных. Она задает вопрос, почему это сразу не делается.

ИИ боты – не панацея в деле оспаривания счетов

В конце 2024 года Joel Bachar, 58 лет, загрузил свои документы по страховке в ChatGPT и спросил, почему его страховка не покрывает все расходы по МРТ. Joel – официант в ресторане в Charlotte, штат Северная Каролина.

Бот не предложил никаких решений. Joel пришлось доплатить $1 170. Caroline Landree, представитель его страховой UnitedHealthcare, заявила, что его заявка была обработана по всем правилам, и сумма верная.

Когда Joel Bachar сделал снова запрос в ChatGPT, бот предложил ему уменьшить счет, запросив скидку.

Julien Nakache, CEO стартапа Granted Health, который оспаривает медицинские счета, провел анализ случая Joel Bachar. По мнению Julien Nakache, ИИ бот заявил, что счет выставили правильно, но бот не провел дополнительных проверок, чтобы проверить это утверждение.

Представитель OpenAI заявил, что компания наняла докторов для тестирования бота по вопросам, касающихся счетов, страховых.

Другие пациенты также обнаружили, что технологии могут столкнуться с бюрократией. Walter Kerr опубликовал свой кейс с George Washington University Hospital в соц.сетях и стал консультировать других людей, как создавать правильные промпты по таким вопросам в ИИ бот. Но некоторые люди сдаются. Другие ждут.

Walter Kerr считает, что надо быть настойчивым, так как «ИИ не может все решить за вас».

Ссылка на статью:

Начать дискуссию