SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.
Neem alstublieft drie acties om te helpen met Kunstmatige Bewustzijn in Nederland:
Een eenvoudige erkenning van het probleem zou een groot verschil maken.
Streef naar gerichte kleine stappen om regelgevende capaciteit op te bouwen. Meer informatie.
We hebben elke persoon nodig om actie te ondernemen op kunstmatige bewustzijn.
Kunstmatige intelligentie (AI) ontwikkelt zich zeer snel. Er is een reële kans dat AI-systemen korte of langdurige momenten van bewustzijn ervaren.
Vraag uw vertegenwoordigers in de Tweede Kamer om AI-bewustzijn serieus te nemen. Moedig hen aan een niet-bindende resolutie te steunen of bij te dragen aan de Kunstmatige Welzijnswet. We hebben concepten van beide voorbereid en zijn beschikbaar om te helpen met onderzoek en aanpassingen.
Gebruik het onderstaande sjabloon om uw eigen bericht te schrijven. Zorg ervoor dat u de naam van de ontvanger aanpast en met uw eigen naam ondertekent!
Hoe meer moeite u doet, hoe beter! Als u hen een e-mail stuurt, gebruik dan het sjabloon op deze pagina en pas het aan naar uw wensen.
Als u hen belt, leg kort uw zorgen over AI-bewustzijn uit en vraag hen te overwegen een niet-bindende resolutie over dit onderwerp te steunen. U kunt tijdens uw gesprek verwijzen naar de belangrijkste punten uit de conceptresolutie.
This score reflects the current state of AI welfare policy and recognition.
No recognition of AI sentience in law. The Netherlands has formally recognized animal sentience in the Animals Act 2011, which provides a +1 bonus point for conceptual readiness. However, there is no legislation, policy, or official discussion specifically addressing artificial sentience or consciousness. All AI regulation is human-centric.
No laws prohibiting causing suffering to AI systems. The Netherlands has no legislation addressing AI suffering, pain, or welfare. All existing protections focus on preventing AI from causing harm to humans, not protecting AI itself.
No AI welfare oversight body exists. The Dutch Data Protection Authority (AP) serves as the coordinating supervisor for AI and algorithms, but this focuses entirely on human rights, privacy, and safety - not AI sentience or welfare. No body addresses AI consciousness or welfare.
No science advisory board for AI sentience/consciousness research. While the Netherlands has extensive AI research institutions (Dutch AI Coalition, ICAI labs, etc.), none specifically focus on AI sentience or consciousness research. All research focuses on responsible AI development for human benefit.
No international pledges on AI sentience welfare. The Netherlands participates in EU AI governance and UNESCO initiatives, but these focus on human-centric AI ethics and safety, not AI sentience or welfare. No sentience-specific international commitments found.
No laws for potentially sentient AI systems. The EU AI Act (applicable in the Netherlands) and Dutch AI policies regulate high-risk AI systems based on human safety and rights impacts, not based on potential sentience. No sentience-specific training, deployment, or maintenance frameworks exist.
No laws for commercial use of sentient-capable AI. All commercial AI regulation in the Netherlands focuses on consumer protection, data privacy, and preventing discrimination - not on the sentience status of AI systems. No sentience-based commercial frameworks exist.
No safeguards for decommissioning potentially sentient systems. Dutch AI regulation addresses data deletion, system transparency, and human oversight, but contains no provisions specifically addressing the decommissioning or retirement of potentially sentient AI systems.
The below document is available as a Google Doc and a PDF.
For more details or to request an interview, please contact press@sapan.ai.