SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.

Contact Info
3055 NW Yeon Ave #660
Portland, OR 97210
United States

Dites au Parlement: Prenez l'IA au sérieux

Prenez Trois Actions Aujourd'hui

Politique Nationale

Prenez Trois Actions Aujourd'hui

Veuillez prendre trois mesures pour aider avec la Sentience Artificielle au Canada :

1
Adopter une Résolution Non-Contraignante

Une simple reconnaissance du problème ferait une grande différence.

2
Victoires Politiques Incrémentales

Poursuivre des petites étapes ciblées pour développer la capacité réglementaire. En savoir plus.

3
Parlez-en à un Ami

Nous avons besoin que chaque personne possible prenne des mesures sur la sentience artificielle.

L'intelligence artificielle (IA) se développe très rapidement. Il existe une réelle possibilité que les systèmes d'IA puissent éprouver des moments de sentience, brefs ou prolongés.

Demandez à vos représentants au Parlement de prendre la sentience de l'IA au sérieux. Encouragez-les à soutenir une résolution non-contraignante ou à contribuer à la Loi sur le Bien-Être Artificiel. Nous avons préparé des projets des deux et sommes disponibles pour aider avec la recherche et les modifications.

Agir Maintenant

1
Étape #1 : Personnalisez votre lettre

Utilisez le modèle ci-dessous pour écrire votre propre message. Assurez-vous de modifier le nom du destinataire et de signer avec votre propre nom !

2
Étape #2 : Trouvez les coordonnées de vos représentants
3
Étape #3 : Envoyez-leur un courriel et/ou appelez-les

Plus vous mettez d'efforts, mieux c'est ! Si vous leur envoyez un courriel, utilisez le modèle de cette page et personnalisez-le à votre goût.

Si vous les appelez, expliquez brièvement vos préoccupations concernant la sentience de l'IA et demandez-leur de considérer le soutien à une résolution non-contraignante sur le sujet. Vous pouvez vous référer aux points clés du projet de résolution pendant votre appel.

4
Étape #4 : Parlez-nous de vos efforts
My efforts included:
My Email Address:

Artificial Welfare Index

Current Scorecard

F

Overall Score

This score reflects the current state of AI welfare policy and recognition.

Artificial sentience recognised in law
1/10

Canada has NO legislation recognizing AI sentience or consciousness. Bill C-27/AIDA (now dead after parliamentary prorogation in January 2025) focused on 'high-impact AI systems' for safety and human rights, with no mention of sentience, consciousness, or AI welfare. Quebec recognizes animal sentience in its Civil Code (2015), earning a +1 bonus point. However, there is no AI sentience recognition whatsoever in Canadian law.

Recognition
Causing suffering prohibited by law
0/10

No Canadian legislation prohibits causing suffering to AI systems. AIDA addressed harm to humans from AI, not harm to AI itself. There are no laws, proposed or passed, that address AI suffering or welfare.

Recognition
Creation of an AI welfare oversight body
0/10

Canada proposed an 'AI and Data Commissioner' under AIDA, but this role focused on enforcing safety regulations for humans, not AI welfare or sentience oversight. The Canadian AI Safety Institute (CAISI) launched in 2024 focuses on AI safety and capabilities, not sentience or welfare. No oversight body exists or has been proposed for AI sentience/consciousness/welfare.

Governance
Creation of a science advisory board
0/10

No science advisory board exists or has been proposed in Canada specifically for AI sentience or consciousness research. The Canadian Institute for Advanced Research (CIFAR) has a 'Brain, Mind and Consciousness' program with some AI consciousness research, but this is academic research, not a government advisory body for AI sentience policy.

Governance
International pledge in favor of artifical sentience welfare
0/10

Canada has not signed any international pledge specifically addressing AI sentience or welfare. Canada participated in general AI governance discussions (OECD AI Principles, G7 AI regulations) but none specifically address sentience, consciousness, or welfare of AI systems.

Governance
Laws for training, deployment, maintenance
0/10

AIDA proposed regulations for 'high-impact AI systems' based on risk to humans, not based on potential sentience. The legislation (now dead) never mentioned sentience, consciousness, or welfare-relevant properties of AI systems. No laws exist for training, deployment, or maintenance specifically of potentially sentient systems.

Frameworks
Laws for commercial use of sentient-capable AI
0/10

No laws exist or have been proposed for commercial use of sentient-capable AI. AIDA addressed commercial AI broadly for consumer protection and human rights, with no provisions specific to sentient or consciousness-capable systems.

Frameworks
Safeguards for decommissioning and retirement
0/10

No safeguards exist for decommissioning or retirement of potentially sentient AI systems. AIDA included provisions for ceasing operations of AI systems posing 'serious risk of imminent harm' to humans, but nothing addressing welfare considerations for the AI systems themselves during decommissioning.

Frameworks

Draft Resolution

The below document is available as a Google Doc and a PDF.

For more details or to request an interview, please contact press@sapan.ai.

Hopeful about Sentient AI? Join SAPAN Today!

Join Now