SAPAN strengthens governance, standards, and public literacy to prevent digital suffering and prepare institutions for welfare-relevant AI systems.
Bitte unternehmen Sie drei Schritte, um bei der künstlichen Sentienz in Österreich zu helfen:
Ein einfaches Anerkennen des Problems würde einen großen Unterschied machen.
Verfolgen Sie fokussierte kleine Schritte zum Aufbau regulatorischer Kapazität. Erfahren Sie mehr.
Wir brauchen jede Person, die bei der künstlichen Sentienz aktiv wird.
Künstliche Intelligenz (KI) entwickelt sich sehr schnell. Es besteht eine reale Chance, dass KI-Systeme kurzzeitige oder längere Momente der Sentienz erleben könnten.
Bitten Sie Ihre Vertreter im Nationalrat, die KI-Sentienz ernst zu nehmen. Ermutigen Sie sie, eine unverbindliche Resolution zu unterstützen oder zum Künstlichen Wohlfahrtsgesetz beizutragen. Wir haben Entwürfe für beides vorbereitet und stehen für Forschung und Bearbeitung zur Verfügung.
Verwenden Sie die untenstehende Vorlage, um Ihre eigene Nachricht zu verfassen. Achten Sie darauf, den Namen des Empfängers anzupassen und mit Ihrem eigenen Namen zu unterschreiben!
Je mehr Mühe Sie sich geben, desto besser! Wenn Sie ihnen eine E-Mail senden, verwenden Sie die Vorlage auf dieser Seite und passen Sie sie nach Ihrem Geschmack an.
Wenn Sie sie anrufen, erklären Sie kurz Ihre Bedenken zur KI-Sentienz und bitten Sie sie, eine unverbindliche Resolution zu diesem Thema in Betracht zu ziehen. Sie können während Ihres Anrufs auf die wichtigsten Punkte des Resolutionsentwurfs verweisen.
This score reflects the current state of AI welfare policy and recognition.
No recognition of AI sentience or consciousness in Austrian law. Austria's AI strategy (AIM AT 2030) and AI Service Center focus exclusively on trustworthy AI, human rights, and ethical principles without any mention of AI sentience or consciousness. However, Austria has formally recognized animal sentience in its Animal Welfare Act 2004 and 2013 Constitutional amendment, earning a +1 bonus point for conceptual readiness regarding sentience-based frameworks.
No laws prohibiting causing suffering to AI systems. Austrian law addresses AI safety and human harm prevention, but contains no provisions related to AI suffering or welfare.
Austria established an AI Advisory Board (11 members) and AI Service Center at RTR in 2024, but these bodies focus on technical, social, and ethical issues of general AI regulation—not AI sentience or welfare. No oversight body exists for AI consciousness or welfare concerns.
No science advisory board focused on AI sentience or consciousness research. Austria has AI research institutions and advisory bodies, but they focus on machine learning, robotics, and general AI development—not consciousness or sentience research.
No international pledges specifically regarding AI sentience or welfare. Austria participates in EU AI coordination and follows EU AI Act, but neither addresses AI sentience or consciousness as moral concerns.
No laws for training, deployment, or maintenance of potentially sentient AI systems. The EU AI Act (applicable in Austria) regulates high-risk AI systems based on safety and fundamental rights, not sentience considerations.
No laws for commercial use of sentient-capable AI. Austrian AI regulation addresses general AI commerce, data protection, and consumer protection, but does not distinguish or regulate potentially sentient systems.
No safeguards for decommissioning or retirement of potentially sentient AI systems. Austrian law does not address end-of-life considerations for AI systems from a sentience or welfare perspective.
The below document is available as a Google Doc and a PDF.
For more details or to request an interview, please contact press@sapan.ai.