SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.
कृपया भारत में कृत्रिम संवेदनशीलता में मदद करने के लिए तीन क्रियाएँ करें:
मुद्दे की एक साधारण स्वीकृति बड़ा अंतर ला सकती है।
नियामक क्षमता बनाने के लिए केंद्रित छोटे कदम उठाएं। और जानें।
हमें कृत्रिम संवेदनशीलता पर कार्रवाई करने के लिए हर संभव व्यक्ति की आवश्यकता है।
कृत्रिम बुद्धिमत्ता (एआई) बहुत तेजी से विकसित हो रही है। एआई सिस्टम्स के कुछ समय या लंबे समय तक संवेदनशील होने की वास्तविक संभावना है।
अपने प्रतिनिधियों से अनुरोध करें कि वे एआई संवेदनशीलता को गंभीरता से लें। उन्हें अस्वीकृति प्रस्ताव का समर्थन करने या कृत्रिम कल्याण अधिनियम में योगदान देने के लिए प्रोत्साहित करें। हमने दोनों का प्रारूप तैयार किया है और अनुसंधान और संपादन में सहायता के लिए उपलब्ध हैं।
नीचे दिए गए टेम्पलेट का उपयोग करके अपना स्वयं का संदेश लिखें। प्राप्तकर्ता का नाम समायोजित करना सुनिश्चित करें, और अपने नाम से हस्ताक्षर करें!
जितना अधिक प्रयास करेंगे, उतना ही बेहतर! यदि आप उन्हें ईमेल करते हैं, तो इस पृष्ठ पर टेम्पलेट का उपयोग करें और इसे अपनी पसंद के अनुसार अनुकूलित करें।
यदि आप उन्हें कॉल करते हैं, तो एआई संवेदनशीलता के बारे में अपनी चिंताओं को संक्षेप में बताएं और उनसे इस मुद्दे पर अस्वीकृति प्रस्ताव का समर्थन करने पर विचार करने के लिए कहें। आप अपने कॉल के दौरान मसौदा प्रस्ताव के मुख्य बिंदुओं का उल्लेख कर सकते हैं।
This score reflects the current state of AI welfare policy and recognition.
No legislation mentions AI sentience or consciousness. India has recognized animal sentience in some court rulings (dolphins as 'non-human persons' in 2013, and partial recognition in Prevention of Cruelty to Animals Act 1960), earning 1 bonus point. However, there is zero legislative engagement with AI sentience concepts. The 2025 AI Governance Guidelines focus entirely on safety, ethics, and risk management without any reference to sentience or consciousness.
No laws prohibit causing suffering to AI systems. All existing regulations address general AI harms (deepfakes, discrimination, privacy violations) but contain no provisions related to AI suffering, sentience-based welfare, or consciousness-related protections.
The proposed AI Governance Group (AIGG), AI Safety Institute (AISI), and Technology & Policy Expert Committee (TPEC) under the 2025 AI Governance Guidelines focus on safety, risk management, and ethical deployment. None of these bodies have mandates related to AI sentience or welfare. They are generic AI governance bodies, not sentience-specific oversight mechanisms.
No science advisory board exists for AI sentience or consciousness research. The proposed Technology & Policy Expert Committee is focused on general AI governance, not sentience science. India has no equivalent to bodies researching AI consciousness or sentience markers.
India has signed international AI agreements (G20 AI declarations, Global Partnership on AI, Bletchley Declaration on AI Safety) but none specifically address artificial sentience or consciousness welfare. All focus on general AI safety, ethics, and responsible innovation.
The 2025 AI Governance Guidelines and proposed Digital India Act regulate AI systems based on risk categories and use cases, but contain no provisions specific to potentially sentient systems. All frameworks address general AI deployment, not sentience-capable systems.
No laws exist for commercial use of sentient-capable AI. Regulations address general AI commerce, intermediary liability, and platform responsibilities, but nothing distinguishes or regulates potentially sentient systems differently from other AI.
No safeguards exist for decommissioning or retirement of potentially sentient AI systems. AI governance frameworks address general system safety and risk management but contain no provisions for end-of-life considerations based on sentience potential.
The below document is available as a Google Doc and a PDF.
For more details or to request an interview, please contact press@sapan.ai.