Бурятского государственного университета
имени Доржи Банзарова
АвторизацияРУСENG

Вестник БГУ. Философия

Библиографическое описание:
Бадмаева М. Х.
,
Золхоева М. В.
К ВОПРОСУ О НЕОБХОДИМОСТИ СОЦИАЛЬНО-ФИЛОСОФСКОГО АНАЛИЗА ПРОБЛЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Вестник БГУ. Философия. - 2023. №2. . - С. 76-85.
Заглавие:
К ВОПРОСУ О НЕОБХОДИМОСТИ СОЦИАЛЬНО-ФИЛОСОФСКОГО АНАЛИЗА ПРОБЛЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Финансирование:
Коды:
DOI: 10.18101/1994-0866-2023-2-76-85УДК: 1:316+17
Аннотация:
В настоящее время мы являемся свидетелями увеличения масштабов внедрения новых технологий во все сферы жизнедеятельности человека. Искусственный интеллект (далее — ИИ) чрезвычайно активно проникает в жизненный уклад общества. Это открывает целый ряд новых возможностей и преимуществ для человека, однако порождает потенциальные риски и угрозы, усугубляющие существующие в обществе проблемы: предвзятое и несправедливое отношение к человеку, рост без- работицы, трансформация человеческой идентичности, угроза безопасности и др. Кроме того, ИИ создает специфические трудности, обусловленные его природой, среди которых проблемы алгоритмической предвзятости, ошибки при работе с боль- шими объемами данных, принципиальная непрозрачность действий ИИ. Поэтому необходимо осторожное, осмысленное и подконтрольное человеку внедрение ИИ, чтобы обеспечить безопасность общества. В этих условиях философская рефлексия проблем применения ИИ позволяет глубже взглянуть на предполагаемые и существующие угрозы, возникающие вследствие взаимодействия человека и данной тех- нологии и выработать адекватный ответ на вызовы искусственного разума.
Ключевые слова:
философия, социальная философия, искусственный интеллект, уз- кий искусственный интеллект, системы искусственного интеллекта, алгоритмическая предвзятость, дискриминация, социальная несправедливость, автономия человека, непрозрачность систем искусственного интеллекта.
Список литературы:
Маркс К., Энгельс Ф. Капитал. Критика политической экономии. 1960. Москва: Политиздат. 1960. Т. 23. С. 51. Текст: непосредственный.

Ashrafian H. Engineering a social contract: Rawlsian distributive justice through algo- rithmic game theory and artificial intelligence // AI Ethics. 2022.

Benjamin R. Assessing risk, automating racism // Science. 2019. 366. Vol. 6464. P. 421‒422.

Buolamwini J., Gebru T. Gender shades: Intersectional accuracy disparities in commercial gender classification // Proceedings of conference on fairness, accountability and transpar- ency, FAT2018. 2018. P. 77–91.

Dastin J. Amazon scraps secret AI recruiting tool that showed bias against wom- en.reuters.сom. URL: https://www.reuters.com/article/us-amazon-com-jobs-automation- insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women- idUSKCN1MK08G (дата обращения: 11. 03. 2023)

Eveleth R. My robot bought illegal drugs. BBC. 2015. URL: https://tinyurl.com/qbgglw7 (дата обращения: 28.03.2023).

How is new technology changing job design? / M. B. Gibbs, S. Bazylik et al. // IZA World of Labor. 2022. 464 p.

Grogger J., Ivandic R., Kirchmaier T. Comparing conventional and machine-learning approaches to risk assessment in domestic abuse cases // Journal of Empirical Legal Studies. 2020. Vol. 18(1). P. 90–130.

Hackman J. R., Oldham G. R. Motivation through the design of work: Test of a theory // Organizational Behavior and Human Performance. 1976. Vol. 16(2). P. 258.

Hacker P. Teaching Fairness to Artificial Intelligence: Existing and Novel Strategies Against Algorithmic Discrimination under EU Law r // Common Market Law Review. 2018. № 55(4).

Jackson J. R. Algorithmic Bias // Journal of Leadership, Accountability & Ethics. 2018. Vol. 15, Issue 4. P. 55‒65.

How we analysed the COMPAS recidivism algorithm / J. Larson, S. Mattu, L. Kirchner, J. Angwin // ProPublica. 2016. Vol. 5(2016). P. 9.

Oakden-Rayner L. CheXNet: An In-Depth Review. URL: https://laurenoakdenrayner.com/2018/01/24/chexnet-an-in-depth-review (дата обращения: 28.03.2023).

Dissecting racial bias in an algorithm used to manage the health of populations / Z. Obermeyer, B. Powers, C. Vogeli, S. Mullainathan // Science. 2019. Vol. 366(6464). P. 447– 453.

Roberts P. Working smarter with data. Australian Manufacturing Forum. URL: https://www.aumanufacturing.com.au/working-smarter-with-data-ai-gives-agriculture-the- competitive-edge (дата обращения: 30.03.2023).

Mastering the game of go without human knowledge / D. Silver, J. Schrittwieser, K. Si- monyan, I. Antonoglou, et al. // Nature. 2017. Vol. 2017550(7676). P.354–359.

Smith L. Unfairness by Algorithm: Distilling the Harms of Automated Decision-Making. Future of Privacy Forum. URL : https://fpf. org/2017/12/11/unfair-ness-by-algorithm-distilling- theharms-of-automa-ted-decision-making (дата обращения: 10.04.2023).

Strickland E. Racial Bias Found in Algorithms That Determine Health Care for Millions of Patients // IEEE Spectrum. 2019.

Wang P., Goertzel B., Franklin S. Artificial general intelligence, 2008: Proceedings of the first AGI conference / P. Wang, B. Goertzel, S. Franklin. Washington DC: IOS Press, 2008. 507 p.

Wall L. Some financial regulatory implications of artificial intelligence // J. Econ. Bus. 2018. Vol. 100. P. 55–63.

West S. M., Whittaker M., Crawford K. Discriminating systems: Gender, race and power in AI. AI Now Institute / S. M. West, M. Whittaker, K. Crawford. URL: https://ainowinstitute.org/discriminatingsystems.html (дата обращения: 12.04.2023).

Frey C. B., Osborne M. A. The future of employment: How susceptible are jobs to computerisation? // Technol. Forecast Soc. Chang. 2017. Vol. 114. P. 254–280.

Acemoglu D., Restrepo P. The race between man and machine: Implications of tech- nology for growth, factor shares, and employment // Am Econ. Rev. 2018. Vol. 108(6). P. 1488–1542.

Haenlein M., Huang M. H., Kaplan A. Guest Editorial: Business Ethics in the Era of Artificial Intelligence // Journal Business Ethics. 2022. P. 1–3.