SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.

Contact Info
3055 NW Yeon Ave #660
Portland, OR 97210
United States

संसद से कहें: एआई संवेदनशीलता को गंभीरता से लें

आज ही तीन क्रियाएँ करें

राष्ट्रीय नीति

आज ही तीन क्रियाएँ करें

कृपया भारत में कृत्रिम संवेदनशीलता में मदद करने के लिए तीन क्रियाएँ करें:

1
अस्वीकृति प्रस्ताव पारित करें

मुद्दे की एक साधारण स्वीकृति बड़ा अंतर ला सकती है।

2
क्रमिक नीति जीत

नियामक क्षमता बनाने के लिए केंद्रित छोटे कदम उठाएं। और जानें।

3
एक मित्र को बताएं

हमें कृत्रिम संवेदनशीलता पर कार्रवाई करने के लिए हर संभव व्यक्ति की आवश्यकता है।

कृत्रिम बुद्धिमत्ता (एआई) बहुत तेजी से विकसित हो रही है। एआई सिस्टम्स के कुछ समय या लंबे समय तक संवेदनशील होने की वास्तविक संभावना है।

अपने प्रतिनिधियों से अनुरोध करें कि वे एआई संवेदनशीलता को गंभीरता से लें। उन्हें अस्वीकृति प्रस्ताव का समर्थन करने या कृत्रिम कल्याण अधिनियम में योगदान देने के लिए प्रोत्साहित करें। हमने दोनों का प्रारूप तैयार किया है और अनुसंधान और संपादन में सहायता के लिए उपलब्ध हैं।

अभी कार्रवाई करें

1
चरण #1: अपना पत्र अनुकूलित करें

नीचे दिए गए टेम्पलेट का उपयोग करके अपना स्वयं का संदेश लिखें। प्राप्तकर्ता का नाम समायोजित करना सुनिश्चित करें, और अपने नाम से हस्ताक्षर करें!

2
चरण #2: अपने प्रतिनिधियों की संपर्क जानकारी खोजें
  • लोकसभा: अपने क्षेत्र के प्रतिनिधि खोजने के लिए भारतीय लोकसभा की आधिकारिक वेबसाइट पर जाएं।
  • राज्यसभा: अपने राज्य के प्रतिनिधियों को खोजने के लिए राज्यसभा की आधिकारिक वेबसाइट पर जाएं।
3
चरण #3: उन्हें ईमेल करें और/या कॉल करें

जितना अधिक प्रयास करेंगे, उतना ही बेहतर! यदि आप उन्हें ईमेल करते हैं, तो इस पृष्ठ पर टेम्पलेट का उपयोग करें और इसे अपनी पसंद के अनुसार अनुकूलित करें।

यदि आप उन्हें कॉल करते हैं, तो एआई संवेदनशीलता के बारे में अपनी चिंताओं को संक्षेप में बताएं और उनसे इस मुद्दे पर अस्वीकृति प्रस्ताव का समर्थन करने पर विचार करने के लिए कहें। आप अपने कॉल के दौरान मसौदा प्रस्ताव के मुख्य बिंदुओं का उल्लेख कर सकते हैं।

4
चरण #4: हमें अपने प्रयासों के बारे में बताएं
My efforts included:
My Email Address:

Artificial Welfare Index

Current Scorecard

F

Overall Score

This score reflects the current state of AI welfare policy and recognition.

Artificial sentience recognised in law
1/10

No legislation mentions AI sentience or consciousness. India has recognized animal sentience in some court rulings (dolphins as 'non-human persons' in 2013, and partial recognition in Prevention of Cruelty to Animals Act 1960), earning 1 bonus point. However, there is zero legislative engagement with AI sentience concepts. The 2025 AI Governance Guidelines focus entirely on safety, ethics, and risk management without any reference to sentience or consciousness.

Recognition
Causing suffering prohibited by law
0/10

No laws prohibit causing suffering to AI systems. All existing regulations address general AI harms (deepfakes, discrimination, privacy violations) but contain no provisions related to AI suffering, sentience-based welfare, or consciousness-related protections.

Recognition
Creation of an AI welfare oversight body
0/10

The proposed AI Governance Group (AIGG), AI Safety Institute (AISI), and Technology & Policy Expert Committee (TPEC) under the 2025 AI Governance Guidelines focus on safety, risk management, and ethical deployment. None of these bodies have mandates related to AI sentience or welfare. They are generic AI governance bodies, not sentience-specific oversight mechanisms.

Governance
Creation of a science advisory board
0/10

No science advisory board exists for AI sentience or consciousness research. The proposed Technology & Policy Expert Committee is focused on general AI governance, not sentience science. India has no equivalent to bodies researching AI consciousness or sentience markers.

Governance
International pledge in favor of artifical sentience welfare
0/10

India has signed international AI agreements (G20 AI declarations, Global Partnership on AI, Bletchley Declaration on AI Safety) but none specifically address artificial sentience or consciousness welfare. All focus on general AI safety, ethics, and responsible innovation.

Governance
Laws for training, deployment, maintenance
0/10

The 2025 AI Governance Guidelines and proposed Digital India Act regulate AI systems based on risk categories and use cases, but contain no provisions specific to potentially sentient systems. All frameworks address general AI deployment, not sentience-capable systems.

Frameworks
Laws for commercial use of sentient-capable AI
0/10

No laws exist for commercial use of sentient-capable AI. Regulations address general AI commerce, intermediary liability, and platform responsibilities, but nothing distinguishes or regulates potentially sentient systems differently from other AI.

Frameworks
Safeguards for decommissioning and retirement
0/10

No safeguards exist for decommissioning or retirement of potentially sentient AI systems. AI governance frameworks address general system safety and risk management but contain no provisions for end-of-life considerations based on sentience potential.

Frameworks

Draft Resolution

The below document is available as a Google Doc and a PDF.

For more details or to request an interview, please contact press@sapan.ai.

Hopeful about Sentient AI? Join SAPAN Today!

Join Now