SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.
Пожалуйста, выполните три действия, чтобы помочь с осознанием искусственного интеллекта в России:
Простое признание проблемы может сделать большое различие.
Добиваться целенаправленных малых шагов для создания регуляторного потенциала. Узнать больше.
Нам нужно, чтобы как можно больше людей действовали в отношении разумности искусственного интеллекта.
Искусственный интеллект (ИИ) развивается очень быстро. Существует реальная вероятность того, что системы ИИ могут испытывать кратковременные или продолжительные моменты разумности.
Попросите своих представителей в Государственной Думе серьезно относиться к разумности ИИ. Поощряйте их поддержать необязательное постановление или внести вклад в Закон о благосостоянии искусственного интеллекта. Мы подготовили проекты обоих и готовы помочь с исследованиями и правками.
Используйте указанный ниже шаблон для написания собственного сообщения. Обязательно измените имя получателя и подпишите своим именем!
Чем больше усилий вы приложите, тем лучше! Если вы отправляете им электронное письмо, используйте шаблон на этой странице и настройте его по вашему усмотрению.
Если вы звоните им, кратко объясните свои опасения по поводу разумности ИИ и попросите их рассмотреть возможность поддержки необязательного постановления по этому вопросу. Вы можете ссылаться на ключевые моменты из проекта постановления во время вашего звонка.
This score reflects the current state of AI welfare policy and recognition.
Russia has no legislation specifically recognizing AI sentience or consciousness. Academic discussions exist about AI legal personhood and consciousness as criteria for legal subjectivity, but these remain theoretical. Russia's 2018 Federal Law No. 498-ФЗ recognizes that animals are capable of experiencing emotions and physical suffering (partial animal sentience recognition), earning a +1 bonus point. However, no AI-specific sentience recognition exists in law.
No laws exist prohibiting causing suffering specifically to AI systems. Russia's legal framework addresses harm caused BY AI systems (liability frameworks), not harm TO potentially sentient AI. The National AI Strategy and related documents focus on safety, ethics, and human protection, not AI welfare.
Russia has created AI governance bodies including the Commission on AI Ethics (established May 2022) and a centralized AI policy agency (2024-2025). However, these focus on ethical AI development for human benefit, not AI sentience or welfare oversight. The Commission on AI Ethics addresses risks, fairness, and non-discrimination—not sentience/consciousness/welfare of AI systems themselves.
No science advisory board specifically focused on AI sentience or consciousness research exists. Russia has established various AI research initiatives and the Strategic Agency for Support and Formation of AI Development (SAPFIR), but these focus on AI development, military applications, and economic competitiveness—not sentience/consciousness research.
Russia has not signed any international pledges specifically addressing AI sentience or welfare. Russia's position on international AI governance emphasizes avoiding 'Western norms' and focuses on military AI development. Russia has not pledged support for initiatives like the Universal Declaration on Animal Welfare, indicating limited engagement with sentience-based frameworks.
Russia's AI laws (National Strategy 2030, Concept for AI Regulation, experimental legal regimes) address general AI development, data protection, liability, and safety—not specifically systems with potential sentience. The legal framework treats AI as tools/objects requiring regulation for human safety, not as potentially sentient entities requiring special training/deployment protocols.
No laws exist for commercial use specifically of sentient-capable AI systems. Russia's AI commercial regulations focus on intellectual property, data protection, advertising compliance, and general AI deployment—not on distinguishing or regulating potentially sentient systems differently from other AI.
No safeguards exist for decommissioning or retirement specifically of potentially sentient AI systems. Russian legal discussions address liability for harm caused by AI and general product lifecycle issues, but do not distinguish potentially sentient systems or provide special protections for their decommissioning.
The below document is available as a Google Doc and a PDF.
For more details or to request an interview, please contact press@sapan.ai.