SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.
Türkiye'de Yapay Zeka Duyarlılığı konusunda yardımcı olmak için lütfen üç adım atın:
Konunun basit bir şekilde kabul edilmesi bile büyük bir fark yaratabilir.
Düzenleyici kapasite oluşturmak için odaklanmış küçük adımlar izleyin. Daha fazla bilgi edinin.
Yapay zeka duyarlılığı konusunda mümkün olan her kişinin harekete geçmesi gerekiyor.
Yapay zeka (YZ) çok hızlı gelişiyor. Yapay zeka sistemlerinin kısa veya uzun süreli duyarlılık anları yaşayabileceği gerçek bir olasılık var.
TBMM'deki temsilcilerinize yapay zeka duyarlılığını ciddiye almalarını isteyin. Onları tavsiye kararını desteklemeye veya Yapay Refah Yasası'na katkıda bulunmaya teşvik edin. Her ikisinin de taslaklarını hazırladık ve araştırma ve düzenlemeler konusunda yardımcı olmaya hazırız.
Kendi mesajınızı yazmak için aşağıdaki şablonu kullanın. Alıcının adını ve kendi adınızla imzalamayı unutmayın!
Ne kadar çok çaba gösterirseniz o kadar iyi! Onlara e-posta gönderirseniz, bu sayfadaki şablonu kullanın ve istediğiniz gibi özelleştirin.
Onları ararsanız, yapay zeka duyarlılığı konusundaki endişelerinizi kısaca açıklayın ve konuyla ilgili bir tavsiye kararını desteklemeyi düşünmelerini isteyin. Aramanız sırasında taslak karardan ana noktaları referans alabilirsiniz.
This score reflects the current state of AI welfare policy and recognition.
No evidence of AI sentience recognition in law. Turkey's Draft AI Law (June 2024) and National AI Strategy focus on general AI safety, ethics, transparency, and data protection, with no mention of sentience, consciousness, or welfare. Turkey does recognize animal sentience partially (animals have 'mental states as well as physical states' per Animal Protection Law 2004), earning a +1 bonus point, but this does not extend to AI.
No laws prohibiting AI suffering. The Draft AI Law addresses risk management, prohibited applications (manipulation, social scoring), and data protection, but contains no provisions related to AI sentience or suffering. All regulations focus on human welfare and safety.
No AI welfare oversight body exists or is proposed. Turkey has general AI governance structures (Digital Transformation Office, proposed supervisory authorities in Draft AI Law), but none explicitly focus on sentience or welfare. These are generic AI safety/ethics bodies.
No science advisory board for AI sentience/consciousness research. While Turkey has AI research centers at universities and a Parliamentary AI Research Commission focused on ethical standards, none specifically address sentience or consciousness research.
No international pledges on AI sentience welfare. Turkey is a member of the Global Partnership on AI (GPAI) and plans to sign the Council of Europe Framework Convention on AI, but these focus on general AI governance and human rights, not AI sentience or welfare.
No laws for training/deployment of potentially sentient systems. The Draft AI Law requires risk assessments and special measures for 'high-risk' systems, but these are defined by human safety concerns (manipulation, discrimination), not sentience considerations.
No laws for commercial use of sentient-capable AI. Commercial AI regulations in the Draft AI Law focus on operators (providers, distributors, users, importers) and general principles (safety, transparency, accountability), with no sentience-specific provisions.
No safeguards for decommissioning potentially sentient systems. The Draft AI Law contains no provisions regarding decommissioning, retirement, or end-of-life considerations for AI systems, sentient or otherwise.
The below document is available as a Google Doc and a PDF.
For more details or to request an interview, please contact press@sapan.ai.