Структуры и базы данных

Культурные и социальные последствия внедрения данных в гуманитарные процессы. Данные в исследованиях, публичность того, что выложено для «всеобщего обозрения».

\вернуться на главную\

\интро: Данные ведь и так социальны!

Хотя на всех встречах мы с вами говорим о том, что сами данные — это социальное явление, о «последствиях» использования данных в разных сферах часто говорят как о чём-то отдельном.

Слово «социальный» используется тут отчасти в том же смысле, в котором оно существует в описании разных политик государства или компании. Среди них есть раздел «социальные расходы» или «социальное жильё». Вот «социальные последствия работы с данными» часто имеет похожий смысл. Это делает «данные» чем-то, близким скорее к природе и/или технике, и мы уже обсуждали, почему это неоднозначно. Ведь за таким обозначением скрывается неполнота, использование инструментов сбора и избирательность подхода. Более того, интересно, каким образом разные акторы выполняют работу по проведению границ между природой/культурой. Давайте посмотрим на отрывок из интервью с Кейт Кроуфорд и Мередит Уиттакер, основательницами исследовательского института AI Now, занимающимся осмыслением проблем, связанных с алгоритмами и большими данными.

Kate Crawford: «Well, look ... You know, it's interesting. If I look at something like how we can reduce power costs, right? If we look specifically at the environment and climate change, there's been some really interesting work that's being done using AI systems to say, "Hey, we can actually modulate the use of the electricity grid to make sure we're much more efficient. We can look at how ..." I mean, think about how much energy is wasted in cities and in giant server farms, which we've done lots of research in, as well.

Looking at data centers, I mean, we can do stuff there. That excites me. We've actually got big challenges, particularly on the environment side, where we can do real work. But the minute this stuff touches complex social systems, you are looking at way messier terrain. That's when you need to think in a much more nuanced way about how you might be affecting people's lives.»

Социолог и философ Бруно Латур в своей известной работе «Пересборка социального» особо обращает наше внимание на то, что акторы сами постоянно совершают работу по различению между социальным и техническим, природным и культурным. И вот смотря на высказывание Кроуфорд, мы видим, что когда алгоритмические системы обсуждаются в контексте природы и окружающей среды, у нас возникает меньше проблем, чем когда мы вступаем на территорию социального.

На уровне эпистемологии стоит задумываться о том, как разделяются «техника», «природа» и «социальное». Но не менее важно — понять, какие проблемы высвечивают разные критики, и что не так с данными в разных контекстах?

Проблема:
  • Данные построены на тех социальных отношениях, в которые включена несправедливость. Так как данные являются отражением (заметьте, как тут устанавливается прямая связь между данными и представляемым через них миром) множества исторически существовавших типов неравенства, они не только закрепляют и воспроизводят их, но и усиливают, поскольку многие решения начинают приниматься на их основе в ранее немыслимых масштабах.
Примеры:
  • Смещения, которые происходят в алгоритмах и при принятии решений из-за собираемых данных по полу, возрасте, расе и так далее (здесь можно послушать целый подкаст на эту тему). Например, при анализе текущей политики о приёме на работу, алгоритмизированная система предложит продолжать экономически выгодную политику, даже если она исключает пожилых людей и/или женщин в каких-то сферах.
  • В статье Guardian приводится описание таких смещений на примерах ассоциаций с цветами и насекомыми, словом, речь далеко не только о социальных проблемах.
  • И вот непростое исследование о том, как это работает в случае генетических исследований с людьми разных рас.

Проблема:
  • Данные предполагают трактовки, которые интерпретируют людей, о которых эти данные собираются, в очень определённом ключе и игнорируют социальный смысл, который существует у самих людей.
Пример:
  • По ссылке вы можете прочитать интересную статью. Она посвящена тому, какие параметры могут вовсе не учитываться, когда закладываются параметры сбора данных, например, чтобы повысить эффективность на рабочих местах.
  • Автор приводит примеры с теми случаями, когда особенности работников точно нельзя было учесть, но именно они (а вовсе не стандартизированные показатели) оказывались важными.

Проблема:
  • С помощью данных разные институты власти классифицируют людей и группы и закрепляют за ними свойства, которые потом используются в политических, экономических и социальных политиках.

Пример:
  • Например, вот небольшое исследование о том, как работают данные о распространении наркотиков. Оно объясняет, почему в зоне риска из-за введения предиктивной политики оказываются люди из и без того уязвимых групп.
  • Но проблема ещё и в том, что часто эти данные попросту неверны, так как основаны на сложившейся у полиции традиции смотреть на те районы, где и без того была высокая преступность. Double trouble.

Проблема:
  • Появляются всё новые и новые вопросы к тому, что остаётся от прежнего понятия приватности, что приходит ей на смену, и как приватность может различаться от культуры к культуре.

Примеры:
  • Вот статья Мэри Мэдден в Нью-Йорк Таймс посвящена проблеме, связанной с приватностью, о которой, с ее точки зрения, часто забывают: Небогатые люди понимают, что, например, если они будут пользоваться пособиями или бесплатной помощью от государства, то окажутся в категории социально неблагополучных. Это может повредить их детям и им самим. Поэтому, чтобы не попадать в статистику, люди делают своё финансовое и социальное положение частью частной жизни, скрывают проблемы со здоровьем и делают всё, чтобы защитить приватную информацию. Для людей из более обеспеченных групп такое отношение к своему статусу не всегда очевидно.
  • В тех же группах, которые исследовала Мэри и её коллеги, совсем другое отношение к онлайн-приватности: большинству бедных и малообразованных людей риски онлайн-наблюдений непонятны, тем более, что они пользуются интернетом через мобильные устройства, и не рассматривают свои данные в цифровых сервисах как что-то ценное.
  • И ещё один пример: когда публикуют данные о тех, кто болен, например, коронавирусом, это создаёт новые сложности для больных и их близких, ведь их могут начать избегать, курьеры не будут с ними взаимодействовать, им могут отказать в обслуживании в магазинах, и так далее.

Проблема:
  • Сам сбор данных и отношение к ним как ресурсу, создаёт проблему: ведь люди понимают, что их данные собираются, и начинают вести себя иначе. В итоге и данные неверны, и возникают новые социальные проблемы.

Пример:
  • Активистский пример здесь — инициатива про проблему social cooling. Авторы проекта обращают наше внимание: если мы знаем о том, что наши данные анализируют и просматривают компании, мы как пользователи начинаем вести себя более скрытно: не делимся важной информацией, сокращаем возможности взаимодействия онлайн.

Проблема:
  • Данные запрашиваются обычно в контексте процессов, которые нужно улучшить с точки зрения повышения эффективности. Но игнорируются интересы меньшинств и те возможности, которые могут возникнуть благодаря им.

Пример:
Исследовательница Триша Ван занимается этнографией технологией, которая утверждает, что выводы, основанные на больших данных, должны дополняться «насыщенными данными» (да, это привет Клифорду Гирцу). В 2009 году она проводила исследование в Китае для Nokia и обнаружила, что у людей с низким доходом также есть большая потребность в смартфонах. Ван сообщила о своих результатах руководству компании и предложила сменить их бизнес-модель с производства дорогих смартфонов на более доступные, потому что, как показывали результаты ее этнографии, люди с низким доходом в Китае действительно готовы тратить на них деньги и приоритезировать их покупку. В ответ руководство Nokia сказала ей следующее: мы не видим подобных закономерностей в своих данных, а количество ваших наблюдений слишком маленькое по сравнению с нашими датасетами. С точки зрения Ван, существует несколько причин падения Nokia, но одной из них является то, что компания слишком сильно полагалась на цифры.
/ какие меры обычно предлагаются?

  1. Расширение доступа к работе с данными для разных людей.
  2. Об этом можно думать и в контексте проектов по работе с открытыми данными, и в работе с селф-трекингом.
  3. Так, практика селф-трекинга, которую мы немного обсуждали до этого, при этом открывает несколько возможностей. С одной стороны, она расширяет границы для тех, кто раньше не мог никак вовлекаться в сбор данных, и потому может быть понята как увеличение возможностей для пользователей (Swan, 2013)
  4. Правда, с другой стороны, она также открывает новые возможности для слежки. Так, в своей статье о взаимоотношениях между потребителями, страховыми компаниями и дискурсами о селф-трекинге исследователи Штеффен Крюгер и Ниам Ни Бхройн показывают, что подобные новшества увеличивают существующий дисбаланс власти, увеличивая возможности компании в выборе их клиентов, определении их ценности и вмешательства в их поведение.Образование и повышение осведомлённости.Так, в Нью-Йорке действует School of Poetic Computing, где художники работают на стыке теории, программирования и художественной практики. Или есть небольшие проекты, которые предлагают узнать, какая информация о вас известна, и кому.
  5. Увеличение грамотности при работе с данными (Data Literacy). Важно, что речь идёт не только о грамотности как умении читать соглашения или понимать те последствия, о которых речь идёт выше, но и о материальности: сами по себе инструменты сбора и анализа должны быть такими, чтобы их можно было понимать. (Fotopoulou, A. (2020). Conceptualising critical data literacies for civil society organisations: agency, care, and social responsibility. Information, Communication & Society, 1-18.)
  6. Технические блокировки сбора данных и отключение каких-то функций. Многие из вас, вероятно, знают AdBlock, но есть и блокировщики сбора информации, например Privacy Badger.
  7. На разных уровнях возникают требования повысить прозрачность действия алгоритмов, а также процесса сбора данных. Примеры можно увидеть в обращении к Ютубу.
  8. И вот ещё одна инициатива: Группа энтузиастов, программистов и исследователей работают над инструментом Facebook Tracking Exposed. С помощью браузерного приложения они предлагают возможность для пользователей, журналистов и исследователей смотреть на то, как работают алгоритмы персонализации в Facebook, и на то, какое влияние на нашу жизнь они оказывают. Проект представляет себя через три ключевые идеи:
  9. Ответственное использование алгоритмов. Часто об ответственности говорят двусмысленно: одновременно о том, что компании обязаны делать алгоритмы, которые не вредны; а пользователи — всё же должны остерегаться и разбираться в том, как работают алгоритмы.
  10. Критическое мышление. Кажется, что алгоритмы часто как будто затмевают нашу способность к формированию собственных суждений, в то время как мы должны ее поддерживать и развивать.
  11. Совместно разделяемое знание. Предполагается, что наша способность понимать в мир и действовать в нем тесно связана с нашим знанием, и что общее знание позволит нам достичь ситуации большего равенства. Также обратите внимание, что авторы проекта позиционируют себя как дата-активисты. О них мы поговорим чуть позже.
  12. Digital Disengagement — это комплекс дискурсов и практик осознанного отказа от использования инноваций, сопротивления включенности в глобальные социальные сети и цифровые экономики. Мы с коллегами из России и Великобритании сделали исследование на эту тему и собрали много материалов.
Вопросы
1. Согласны ли вы с утверждением, что алгоритмические системы создают "меньше проблем" в контексте природы и окружающей среды, но больше проблем в социальном контексте? Какие аргументы вы можете привести? Ответы можете записывать сюда.

2. Почему, согласно тексту, некорректно рассматривать данные как нечто отдельное от социального контекста? Как это связано с разделением на "природу/технику" и "социальное"? Ответы можете вписывать сюда.

3. Как вы понимаете концепцию "social cooling" (социального охлаждения)? Меняете ли вы свое поведение в цифровой среде, зная о сборе ваших данных? Если да, то каким образом? — На предыдущей паре мы договорились провести эксперимент отказа от Cookies. Расскажите о том, как он прошёл. Ответы будем ждать здесь.
/ cписок литературы:

  1. Crawford K., Whittaker M. Artificial Intelligence and Its Impact on Life. Interview with Kara Swisher on the Decode Podcast. Vox, 2019. URL: https://www.vox.com/podcasts/2019/4/8/18299736/artificial-intelligence-ai-meredith-whittaker-kate-crawford-kara-swisher-decode-podcast-interview
  2. AI Now Institute. [Official website]. URL: https://ainowinstitute.org
  3. Benjamin R. Race After Technology. Data Society. URL: https://listen.datasociety.net/episodes/race-after-technology
  4. The Guardian. AI programs exhibit racist and sexist biases, research reveals. The Guardian, 2017. URL: https://www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals
  5. The New York Times. The Devastating Consequences of Being Poor in the Digital Age. The New York Times, 2019. URL: https://www.nytimes.com/2019/04/25/opinion/privacy-poverty.html
  6. Amrute S. Of Techno-Ethics and Techno-Affects. Journal of Cultural Economy, 2019. Vol. 12. No. 5. P. 1–15. URL: https://journals.sagepub.com/doi/full/10.1177/0141778919879744
  7. Social Cooling. Big Data’s Unintended Side Effect. [Official website]. URL: https://www.socialcooling.com/
  8. Wang T. [Official website]. URL: https://www.triciawang.com/
  9. Wikipedia. The Decline and Fall of Nokia. [Electronic resource]. URL: https://en.wikipedia.org/wiki/The_Decline_and_Fall_of_Nokia
  10. Halavais A. A View of Home Made Big Data. First Monday, 2015. Vol. 20. No. 10. URL: https://firstmonday.org/ojs/index.php/fm/article/view/4876/3754
  11. Krüger S., Ní Bhroin N. Vital Signs: Innovations in Self-Tracking, Health Insurance, and Social Change. Journal of Medical Internet Research, 2019. Vol. 21. No. 10. URL: https://journals.uio.no/TJMI/article/view/7836
  12. School for Poetic Computation. [Official website]. URL: https://sfpc.io/
  13. Who Has Your Face. [Official website]. URL: https://whohasyourface.org/
  14. Питер А. Чоу-Уайт, «Данные, код и дискурсы различий в геномике», «Теория коммуникации», том 19, выпуск 3, август 2009 г., страницы 219–247, https://doi.org/10.1111/j.1468-2885.2009.01342.x
  15. Кристиан Лам и Уильям Айзек (2016). Предсказывать и служить? Значение. 10 октября 2016 г. © 2016 The Royal Statistical Society.
Made on
Tilda