Системы искусственного интеллекта (ИИ) в медицине и здравоохранении широко изучаются для профилактики, диагностики, разработки новых лекарств и последующего ухода. Применение этих новейших технологий в медицинских учреждениях различного уровня и направленности обещает впечатляющие результаты, такие как выравнивание уровня здравоохранения, снижение уровня смертности и человеческих ошибок, медицинских расходов, а также зависимости от социальных служб.
Приложения на основе искусственного интеллекта разрабатываются как цифровые инновации для поддержки качества жизни пожилых людей. Однако появление доказательств различных типов алгоритмической предвзятости в этих приложениях, эйджизма в использовании цифровых устройств и платформ, а также возрастное неумение пользоваться цифровыми современными устройствами среди людей старшего поколения, позволяет предположить, что использование ИИ может иметь дискриминационные последствия для пожилых людей или даже вызывать вред.
Уже известна проблема возрастных предубеждений и дискриминации по возрастному неравенству в приложениях ИИ для медицины и систем здравоохранения. Это выражается в потенциальных несопоставимых результатах автоматических систем принятия решений (ADMS — automatic decision-making systems), используемых в здравоохранении для пожилых людей, а также в некоторых аспектах исключения.
Демографическое старение часто связано с дорогостоящей мультиморбидностью, нехваткой квалифицированных кадров, которая уже заметна в сфере ухода и медицины, изменением ожиданий и требований пожилых людей в отношении надлежащего медицинского обслуживания. Цифровизация многих отраслей, а особенно недавние разработки в области искусственного интеллекта для здравоохранения, кажется, обещают выход из этой дилеммы и важное облегчение в плане загрузки койкомест в медицинских учреждениях. Внедрение инноваций позволяет откладывать или даже избегать дорогостоящей стационарного наблюдения.
Но алгоритмы ИИ разрабатываются на основе данных о текущем состоянии здравоохранения и, таким образом, встроены в контекст лишений и неравенства в отношении здоровья. Это было особенно заметно во время пандемии COVID-19, когда социально-экономические факторы оказались ответственными за более высокие показатели заболеваемости и тяжести заболевания. Более того, глобальная пандемия работала как скороварка, которая породила новые конфигурации старых эйджистских и гендерных стереотипов возраста и старения как проблем, в которых технологии рассматриваются как решение. В настоящее время пересматриваются вопросы о том, что можно считать целесообразным и по каким правилам должны следовать технологии, применяться оборудование и назначаться лекарства в организации сохранения здоровья. Эти шаги требуют смены обоснования (включая уровень компенсаций страховых выплат, бухгалтерского учёта и нормирования рабочего времени обслуживающего персонала), легитимизацию некоторых методов и внесения серьёзных правок в базу знаний для преобразований медицинской помощи, связанных с цифровизацией этой сферы услуг.
Тем не менее, критики указывают на четыре причины, по которым ИИ для здравоохранения заслуживает особого внимания:
1) на карту поставлено здоровье людей;
2) люди находятся в уязвимом положении, когда нуждаются в медицинской помощи;
3) сбор данных о состоянии здоровья резко возрос в последнее время;
4) данные о здоровье исторически замусорены предвзятостью.
Из-за этих характеристик использование искусственного интеллекта для ухода за больными людьми сталкивается с уникальными рисками, которые необходимо специально рассматривать со всех точек зрения. При обосновании и разработке критериев, а также утверждаемых стандартов, важно учитывать, что использование технологий зависит от культуры, а также от окружающей среды, возраста и пола. Люди различаются в зависимости от возраста, а также от требований и объёма работы по уходу (речь идёт о разнице в случае людей с тяжёлыми формами инвалидности, в отличие от гериатрического длительного ухода). Это указывает на то, что системы ИИ образуют большое и неоднородное поле социальных преобразований, в котором различные участники и затронутые лица осуществляют множество различных действий с различными целями. Кроме того, область исследований и приложений пока не так широко теоретически оформлена и отражена в долговременных исследованиях.
Необходимо также исследовать какие этические вопросы могут быть определены более точно в соответствующих медицинских услугах, поддерживаемых ИИ. Этот вопрос или точка зрения имеет фундаментальное значение, поскольку социальное и гендерное неравенство присутствуют вариативно в любой форме, особенно в системе здравоохранения, а дальнейшая автоматизация может привести к их усилению. Дискриминация по возрастным характеристикам может проявляться в нескольких формах, от технической предвзятости алгоритмов и наборов данных до эйджизма в дискурсах / нарративах о пожилых людях, до исключения пожилых людей из числа пользователей услуг. Распространённое выражение «мусор на входе, мусор на выходе», используемое для обозначения плохих результатов в моделях искусственного интеллекта, когда данные, на которых происходит машинное обучение, имеют низкое качество, предупреждает о важности методов сбора и анализа данных. «Предвзятость есть, ошибки нет» — ещё одна крылатая фраза, используемая для того, чтобы подчеркнуть опасения по поводу того факта, что модели искусственного интеллекта делают выводы, находя «шаблоны» на основе анализируемых ими данных. Предвзятые инструменты по выборке возраста, используемые для построения алгоритмов, имеют тенденцию исключать привычки, интересы и ценности пожилых людей, что способствует усилению уже существующего структурного эйджизма. Исследования возрастной предвзятости в машинном обучении все ещё редки, но результаты других работ постоянно показывают, что возрастная предвзятость существует в моделях анализа настроений, системах распознавания лиц, использующих передовые методы глубокого обучения, а также в системах распознавания речи и эмоций.
Результаты анализа систем распознавания лиц показывают, что оценка возраста, как правило, плохо работает в более старших возрастных группах (60+), что усугубляется полом и расой. Анализ программного обеспечения, обнаруживающего эмоции, показал, что пожилые люди имели самые низкие показатели точности классификации для каждого из четырёх оценённых алгоритмов, в то время как молодые люди имели самые высокие показатели по всем направлениям. Кроме того, некоторые алгоритмы предполагают улучшение производительности с течением времени для определённых подгрупп, особенно гендерных. Однако для возрастных групп такого влияния не наблюдалось. Зная об этих проблемах, разработчики предпочитают смещать обучающие наборы данных в сторону более молодых людей, вызывая предвзятость репрезентации среди других социальных причин.
Кроме того, многие из этих систем используют биометрические данные, которые представляют собой персональные данные, полученные в результате специальной технической обработки, касающейся физических, физиологических или поведенческих характеристик физического лица. Биометрическая технология может более часто давать сбои, в случае с пожилыми людьми из-за того, как биологическое старение непосредственно влияет и изменяет функции организма. Осязание, зрение, речь и язык тела будут затронуты процессами старения, но также могут быть кардинально нарушены в группах людей с ограниченными возможностями. Например, риск может быть связан с возрастным исчезновением отпечатков пальцев, влияющим на точность их распознавания. Следовательно, использование биометрических данных в приложениях и системах здравоохранения может представлять дополнительный риск для пожилых людей.
В конвейере машинного обучения есть три точки, в которых может возникнуть предвзятость: (1) во время сбора и предварительной обработки данных; (2) при подборе и создании моделей; (3) и при внедрении результатов в алгоритмы. Кроме того, алгоритмы машинного обучения — это не более чем продвинутые системы классификации, основанные на множестве параметров, которые по своей сути содержат моральные стандарты, где каждый стандарт и категория оценивает одну точку зрения и замалчивает другую. Классифицировать — дело человека, но каждая классификация и стандарт дают преимущество, либо причиняют страдания определённой группе или индивидууму. Поэтому надо не бояться признать, что предвзятость в разработках искусственного интеллекта — это воспроизведение социальных предубеждений и стереотипов, закладываемых в данные, а также индивидуальных предубеждений и стереотипов разработчиков технологии ИИ. Нет смысла замалчивать эти проблемы, но стоит понять, как нивелировать негативные последствия от этих обстоятельств.