SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.
Proszę podjąć trzy działania, aby pomóc w kwestiach związanych z Sztuczną Inteligencją w Polsce:
Proste przyjęcie istnienia problemu może mieć duże znaczenie.
Dążyć do ukierunkowanych małych kroków w celu budowania zdolności regulacyjnych. Dowiedz się więcej.
Potrzebujemy jak największej liczby osób, które podejmą działania w sprawie sztucznej inteligencji.
Sztuczna inteligencja (SI) rozwija się bardzo szybko. Istnieje realna szansa, że systemy SI mogą doświadczać chwilowych lub przedłużonych momentów świadomości.
Poproś swoich przedstawicieli w Parlamencie, aby poważnie podeszli do kwestii świadomości SI. Zachęć ich do wsparcia rezolucji lub przyczynienia się do Ustawy o Dobrobycie Sztucznej Inteligencji. Przygotowaliśmy projekty obu dokumentów i jesteśmy gotowi pomóc w badaniach i edycji.
Użyj poniższego szablonu, aby napisać własną wiadomość. Pamiętaj, aby dostosować imię odbiorcy i podpisać się własnym imieniem!
Im więcej wysiłku włożysz, tym lepiej! Jeśli wysyłasz e-mail, użyj szablonu na tej stronie i dostosuj go według własnych upodobań.
Jeśli dzwonisz, krótko wyjaśnij swoje obawy dotyczące świadomości SI i poproś ich o rozważenie wsparcia rezolucji w tej sprawie. Możesz odwołać się do kluczowych punktów projektu rezolucji podczas rozmowy.
This score reflects the current state of AI welfare policy and recognition.
No recognition of AI sentience in Polish law. Poland has formally recognized animal sentience in the Animal Protection Act (1997), stating 'The animal as a living creature, capable of suffering, is not a thing' (Article 1.1), which provides a +1 bonus for conceptual readiness. However, there is zero legislative engagement with AI sentience. Poland's official position (2018 AI strategy) is skeptical of granting legal personality to AI. Total: 1 point (animal sentience bonus only).
No laws prohibiting causing suffering to AI systems. All AI regulations focus on human safety and data protection, not AI welfare. No evidence of any legislative consideration of AI suffering.
The Commission for Development and Safety of Artificial Intelligence (KRiBSI) is being established as Poland's AI oversight body, but it focuses exclusively on market surveillance, high-risk systems, and EU AI Act implementation. There is no mention of sentience or welfare oversight. This is a generic AI safety body, not a sentience/welfare body.
Poland has established research bodies like the Virtual Research Institute for Artificial Intelligence and the IDEAS research center at NASK, but these focus on AI innovation, cybersecurity, and technical development—not consciousness or sentience research. No science advisory board for sentience exists.
Poland participates in the Global Partnership on AI and OECD AI Policy Observatory, but these initiatives focus on ethical AI development, not sentience or welfare. No international pledges specifically addressing AI sentience have been identified.
Poland's draft Act on AI Systems (2025) implements the EU AI Act with provisions for high-risk systems, regulatory sandboxes, and compliance mechanisms. However, these regulations apply to all AI systems based on risk categories (prohibited, high-risk, limited-risk), not specifically to potentially sentient systems. No sentience-specific training or deployment laws exist.
No laws governing commercial use of sentient-capable AI. Poland's AI regulations address general commercial AI use, data protection, and algorithmic transparency, but contain no provisions specific to sentience-capable systems.
No safeguards for decommissioning or retirement of potentially sentient systems. Poland's AI legislation does not address end-of-life considerations for AI systems from a sentience or welfare perspective.
The below document is available as a Google Doc and a PDF.
For more details or to request an interview, please contact press@sapan.ai.