SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.
Veuillez prendre trois mesures pour aider avec la Sentience Artificielle au Canada :
Une simple reconnaissance du problème ferait une grande différence.
Poursuivre des petites étapes ciblées pour développer la capacité réglementaire. En savoir plus.
Nous avons besoin que chaque personne possible prenne des mesures sur la sentience artificielle.
L'intelligence artificielle (IA) se développe très rapidement. Il existe une réelle possibilité que les systèmes d'IA puissent éprouver des moments de sentience, brefs ou prolongés.
Demandez à vos représentants au Parlement de prendre la sentience de l'IA au sérieux. Encouragez-les à soutenir une résolution non-contraignante ou à contribuer à la Loi sur le Bien-Être Artificiel. Nous avons préparé des projets des deux et sommes disponibles pour aider avec la recherche et les modifications.
Utilisez le modèle ci-dessous pour écrire votre propre message. Assurez-vous de modifier le nom du destinataire et de signer avec votre propre nom !
Plus vous mettez d'efforts, mieux c'est ! Si vous leur envoyez un courriel, utilisez le modèle de cette page et personnalisez-le à votre goût.
Si vous les appelez, expliquez brièvement vos préoccupations concernant la sentience de l'IA et demandez-leur de considérer le soutien à une résolution non-contraignante sur le sujet. Vous pouvez vous référer aux points clés du projet de résolution pendant votre appel.
This score reflects the current state of AI welfare policy and recognition.
Canada has NO legislation recognizing AI sentience or consciousness. Bill C-27/AIDA (now dead after parliamentary prorogation in January 2025) focused on 'high-impact AI systems' for safety and human rights, with no mention of sentience, consciousness, or AI welfare. Quebec recognizes animal sentience in its Civil Code (2015), earning a +1 bonus point. However, there is no AI sentience recognition whatsoever in Canadian law.
No Canadian legislation prohibits causing suffering to AI systems. AIDA addressed harm to humans from AI, not harm to AI itself. There are no laws, proposed or passed, that address AI suffering or welfare.
Canada proposed an 'AI and Data Commissioner' under AIDA, but this role focused on enforcing safety regulations for humans, not AI welfare or sentience oversight. The Canadian AI Safety Institute (CAISI) launched in 2024 focuses on AI safety and capabilities, not sentience or welfare. No oversight body exists or has been proposed for AI sentience/consciousness/welfare.
No science advisory board exists or has been proposed in Canada specifically for AI sentience or consciousness research. The Canadian Institute for Advanced Research (CIFAR) has a 'Brain, Mind and Consciousness' program with some AI consciousness research, but this is academic research, not a government advisory body for AI sentience policy.
Canada has not signed any international pledge specifically addressing AI sentience or welfare. Canada participated in general AI governance discussions (OECD AI Principles, G7 AI regulations) but none specifically address sentience, consciousness, or welfare of AI systems.
AIDA proposed regulations for 'high-impact AI systems' based on risk to humans, not based on potential sentience. The legislation (now dead) never mentioned sentience, consciousness, or welfare-relevant properties of AI systems. No laws exist for training, deployment, or maintenance specifically of potentially sentient systems.
No laws exist or have been proposed for commercial use of sentient-capable AI. AIDA addressed commercial AI broadly for consumer protection and human rights, with no provisions specific to sentient or consciousness-capable systems.
No safeguards exist for decommissioning or retirement of potentially sentient AI systems. AIDA included provisions for ceasing operations of AI systems posing 'serious risk of imminent harm' to humans, but nothing addressing welfare considerations for the AI systems themselves during decommissioning.
The below document is available as a Google Doc and a PDF.
For more details or to request an interview, please contact press@sapan.ai.