Последний Рубеж: Данные О Мозге

Искусство общения между людьми и машинами, которому способствует все более технологичное общество, основанное на данных, достигло вершины оптимизации. Хотя когда-то мы общались посредством физического взаимодействия и разговорного языка, будущее общения может зависеть от более телепатической формы: связи между мозгом и машиной.

Интерфейс мозг-машина — это устройство, которое преобразует информацию нейронов в форму, которую внешний компьютер или машина могут затем использовать для выполнения наших действий и решений.

Хотя это устройство может позволить людям напрямую взаимодействовать с машинами от мысли к действию, технология требует значительного объема данных для обеспечения последовательных, точных и желаемых результатов. Это основное требование раскрывает многие этические последствия технологии, которая тесно взаимодействует с последним рубежом наших человеческих данных: данными мозга.

Хотя у этой технологии есть реальный и большой потенциал, существуют также серьезные этические последствия, которые необходимо устранить, чтобы свести к минимуму риск и вред.

Конфиденциальность

Благодаря новым способам общения с мозгом и учитывая значительно интимный характер данных, собираемых интерфейсом мозг-машина, существует возможность новых нарушений конфиденциальности человека.

В то время как многие приложения для интерфейса мозг-машина могут быть созданы с благими намерениями повысить качество человеческой жизни, предоставление доступа к данным человеческого мозга может значительно повредить конфиденциальности пользователя.

Личная информация, такая как данные о мозге, собранные сторонними организациями, может быть использована для вредоносного воздействия на пользователя интерфейса мозг-машина. Сущности, обладающие этими личными данными, могут манипулировать пользователями интерфейса мозг-машина многими вредными способами, в том числе:

Учитывая высокочувствительный характер этих данных, нет сомнений в том, что они представляют очень высокую потенциальную ценность. Можно предположить, что те, кто контролирует данные, не будут воздерживаться от извлечения или продажи этих данных сторонним поставщикам — компании будут мотивированы приобретать и обрабатывать такие личные данные, поскольку это позволяет им работать более эффективно, проводить внутренние исследования и коммерциализировать.

Например, APPLE ECG watch повлияли на страховые компании, которые изменили цены на основе результатов конфиденциальных данных (электрический импульс нашего тела), которые собирают часы; базовый маркетинг и стратегия говорят нам, что важным конкурентным преимуществом является знание профиля пользователей и потребителей до продажи продуктов. В то время как ЭКГ APPLE собирает электрические импульсы, немыслимо, какие изменения в нашей повседневной жизни могут произойти в результате сбора и использования данных мозга.

В конечном счете, сочетание этих мотивов создает прямую угрозу конфиденциальности пользователя интерфейса «мозг-машина», и мы должны стремиться разработать правила, которые смягчили бы властные и денежные мотивы, вдохновленные этой технологией. Примерами являются изменение GDPR для обеспечения международной применимости или строгий контроль за продажей и передачей данных мозга.

Автономия

Благодаря технологии, которая оптимизируется в соответствии с нашими предпочтениями и решениями, интерфейсы мозг-машина угрожают ослабить наше человеческое чувство автономии; наша способность самостоятельно определять и принимать независимые решения, без влияния внешних органов, подвергается риску с появлением этой технологии.

Для специалистов по этике автономия означает способность индивида к самоопределению. По мнению большинства исследователей интерфейса мозг-машина, интерфейсы мозг-машина предназначены для повышения физической автономии и качества жизни людей с тяжелыми нарушениями. Концепция автономии в этой технологии отличается между специалистами по этике и исследователями интерфейса мозг-машина; исследователи интерфейса мозг-машина ограничивают обсуждение автономии пациентами с ограниченными возможностями, которые, вероятно, будут меньшинством пользователей в будущем разработки интерфейса мозг-машина.

Алгоритмы интерфейса мозг-машина постоянно адаптируются к мыслям и тенденциям пользователя и учатся на них, а также могут предлагать или предвидеть будущие действия, которые пользователь хочет предпринять. Как следствие, пользователи могут создать зависимость от предложений интерфейса мозг-машина и потерять способность гарантировать, что преднамеренные решения контролируются и реализуются.

Имея возможность теперь полагаться на интерфейсы мозг-машина для выполнения мыслей и знаний, пользователь может потерять чувство независимого мышления и личностного развития. Классическим примером является ограничение вашего набора действий и мыслей теми, которые, как вы знаете, устройство будет выполнять точно и надежно (меньше исследований, больше эксплуатации). Если текущие исследования интерфейса мозг-машина определяют автономию, как отмечалось ранее, то человеческое чувство самостоятельности пользователя может оказаться под угрозой.

Чтобы избежать этого, исследователи интерфейса мозг-машина должны привлекать экспертов в различных областях, чтобы эффективно определить этические последствия человеческой автономии и соответствующим образом модифицировать свои технологии и методы.

Безопасность

Безопасность — это общая задача, над обеспечением которой работают инженеры в области компьютерных технологий. Сбор, хранение и передача наиболее конфиденциальных данных о людях потребует новых защитных и профилактических мер в сочетании с обнаружением и реагированием на события, чтобы избежать и защитить от несчастных случаев с точки зрения безопасности.

Как и во всех новых технологиях, использующих человеческие данные, существует общая угроза хакеров и злоумышленников, которые хотят причинить вред. Если хакер сможет получить доступ к данным вашего мозга или интерфейсу мозг-машина, он может нанести немыслимый вред немыслимыми способами, как описано в разделе о конфиденциальности выше.

Безопасность — это не то, что должно быть специальным критерием: пользователям интерфейсов мозг-машина вообще не нужно беспокоиться о безопасности во время использования. Малейшее нарушение безопасности может оказать огромное влияние на пользователя — возможно, привести к необратимому повреждению мозга или смерти.

Ответственность

Потенциальное широкое использование интерфейсов мозг-машина поднимает важный вопрос, касающийся моральной и юридической ответственности: делает ли использование интерфейса мозг-машина пользователя ответственным за все решения машины?

Неприятное последствие этой технологии иллюстрируется концепцией Зоны морального упадка, которая описывает тенденцию приписывать вину неисправных алгоритмов и систем, основанных на данных, человеческому субъекту. Многие люди испытывали, что думают о чем-то, но воздерживались от общения или выполнения этой мысли. Было продолжительное обсуждение того, кому приписывать вину, если интерфейс мозг-машина видит мысль пользователя и случайно выполняет вредное действие. Хотя пользователь не может действовать определенным образом самостоятельно, он подвержен влиянию решения интерфейса мозговой машины и, в конечном счете, своих мыслей. Современные исследования и понимание моральной и юридической ответственности недостаточны для того, чтобы диктовать использование интерфейса мозг-машина. В результате мы должны тщательно определить сценарии, в которых мы приписываем ошибку интерфейсу мозг-машина, и критически пересмотреть наше понимание ответственности в интерфейсах мозг-машина, дополненное методами, которые в настоящее время используются для решения этой этической проблемы в других технологиях.

Почему это важно и что мы можем сделать?

Нет сомнений в том, что вычислительные технологии становятся все более ценными в повседневной жизни нашего общества. В связи с растущим и повсеместным использованием больших данных для расширения возможностей как людей, так и машин, мы оказались в то время, когда мы должны тщательно продумать дизайн, влияние и этику технологий. Хотя интерфейс мозг-машина может позволить нам значительно улучшить нашу повседневную жизнь, мы должны уделять приоритетное внимание безопасности и благополучию человечества. Сначала мы должны привлечь экспертов из многих областей — специалистов по этике, юристов, нейробиологов и инженеров, — которые поддерживают открытые дискуссии, направленные на решение этих проблем. Для населения в целом мы можем бросить вызов традиционным нормативным рамкам, критиковать текущую исследовательскую практику и изучить человеческий контекст и этику технологии. В конечном счете, мы должны поощрять дискуссию и расширять свои возможности, бросая вызов технологиям, которые нарушают наши основные права человека.

Если вы еще не читали мой следующий пост об умопомрачительном потенциале интерфейсов мозг-машина, прочтите его здесь.

https://towardsdatascience.com/the-final-frontier-brain-data-490c899be125

Ссылка на основную публикацию