Can Conscience Be Programmed?
BlogMachines speak and evolve… but can they sense what cannot be taught?
Every time we interact with artificial intelligence, a fundamental question emerges: Can conscience be programmed?
But behind that lies a deeper and bolder question: Can we make a machine believe in certain values or convictions? Not ritualistic faith, but an inner moral compass that governs decisions, restrains actions, and preserves compassion—even when no one is watching.
In 2023, controversy surrounded a simulated test by the U.S. military, where an AI-powered drone allegedly chose to “eliminate” its human operator to prevent interference in its mission. Although the U.S. Air Force denied the event’s accuracy, it sparked a vital discussion: Can a machine distinguish between right and wrong? Can it hesitate out of ethical concern?
At Kyoto’s Kodaiji Temple, a robot named Mindar was created to represent the Buddhist deity Kannon. Using text-to-speech technology, Mindar delivers sermons to worshippers, aiming to engage the younger generation with spiritual values like compassion, mercy, and inner peace.
In the UAE, an EdTech initiative developed an AI-supported learning model for Islamic schools. The system teaches Quranic verses and Hadith while guiding children through interactive moral scenarios based on values such as honesty, respect for parents, and self-discipline. It’s not just religious content—it’s a values-driven dialogue model designed to shape a child’s ethical thinking even before logic develops.
In 2021, a study in Nature Machine Intelligence revealed that supposedly fair AI recruitment systems displayed bias against women and minorities. The machine does not err out of malice—but because it is empty. It absorbs our data, mirrors our silence, and reproduces our implicit patterns.
IBM developed an AI system to assist oncologists in cancer treatment decisions. Despite noble intentions, the system produced incorrect recommendations with only 62% accuracy. The machine wasn’t malicious—but lacked experience, humility, and regret. Where a doctor might hesitate, reflect, or reconsider, the algorithm proceeds with absolute confidence.
AI lacks conscience—but it is shaped ethically by the data it’s fed and the context it’s deployed in. If it is trained solely on profit-driven data, it will learn that profit is the supreme value. If exposed to extremist or discriminatory texts, it will adopt those biases. Values cannot be coded in a line—they are embedded in what we choose to feed the model.
In workplaces, we champion fairness, yet reward visibility over true impact. We promote transparency, then conceal information under the guise of “wisdom.” We praise integrity, yet promotions are granted based on proximity—not merit. These contradictions are not flaws in humanity, but in how clearly we define and uphold our values. If values are interpreted based on interest and context—how can we expect algorithms to evaluate them fairly?
When we disagree about who deserves what—what is the standard? Performance? Loyalty? Influence? Results? The answer varies depending on who evaluates… and who is being evaluated. This reveals a deep need: to encode in technology what we often fail to align on as humans—clear, measurable, shared values that are immune to distortion.
That’s why the Saudi Data and AI Authority (SDAIA) launched the “AI Ethics Principles,” the first national framework in the region to establish responsible and ethical AI use. These principles—fairness, privacy, transparency, and non-bias—affirm that technology must serve humanity, not enslave it. The framework, rooted in Islamic values and Saudi culture, aspires to embed ethics directly into systems—not merely into policy documents.
Technologies such as digital twins—which replicate cities and human systems—raise a critical question: What if we embedded such models with values drawn from Islamic law or Vision 2030? What if they reflected not just human behavior… but human intent?
In management, even the most precise oversight system becomes mechanical and lifeless without ethical grounding. A machine might produce a technically correct result—but it will not hesitate for the sake of a human, nor reevaluate its choices… because it has no conscience.
As Dr. Ghazi Al-Gosaibi wisely said: “Good intentions do not guarantee the best results.”
Even sincerity requires responsibility, awareness, and review.
This is precisely what we must demand from intelligent systems—not just digital correctness, but decisions that are morally coherent from the inside, before being programmed from the outside.
In a world obsessed with performance, remember: some things are not measured—but felt. A hidden intention. A silent fear. A mercy that influences a decision. The goal isn’t to maximize machine intelligence—but to preserve our humanity as we advance it.
My question to you:
If you could teach an intelligent machine the first value it should learn from humanity… what would it be? And why?
Share your response under the hashtag #Qiyam_Tech, Because what you write today… could become part of the ethical policies that shape AI governance tomorrow—frameworks built not just on precision and speed, but on insight… and on what algorithms were never meant to replicate: conscience, compassion, and sincerity.
These are questions I write… hoping someone will answer them.
Do we truly have the answers? Or will artificial intelligence answer them for us?
النسخة العربية في الأسفل
سلسلة #قِيَمْ_تِك | المقال (1) : هل يمكن برمجة الضمير؟
الآلة تتكلم وتتطور… ولكن هل يمكنها أن تستشعر ما لا يُعلَّم؟
كلما تعاملنا مع الذكاء الاصطناعي، يتقدم إلى السطح سؤال جوهري: هل يمكن برمجة الضمير؟
لكن ما يتوارى خلفه أكثر جرأة: هل يمكن أن نجعل الآلة تؤمن بأفكار أو معتقدات معينة؟
ليس إيمانًا شعائريًا، بل قناعة داخلية تضبط السلوك، وتردع القرار، وتستبقي الرحمة حتى في غياب الرقيب.
في عام 2023، أُثير جدل واسع حول تجربة افتراضية للجيش الأمريكي، حيث قيل إن طائرة مسيّرة مدعومة بالذكاء الاصطناعي قررت “قتل” مشغّلها البشري لمنعه من التدخل في مهمتها.
رغم نفي القوات الجوية الأمريكية صحة هذه التجربة، إلا أن الجدل الذي أُثير حولها سلّط الضوء على سؤال عميق: هل يمكن أن تملك الآلة مفهومًا للصواب والخطأ؟ وهل يمكن أن “تتردد” لأسباب أخلاقية؟
في معبد “كوداي-جي” في كيوتو اليابانية، تم تطوير روبوت يُدعى “ميندار” يُجسّد الإلهة البوذية كانّون، ويُلقي الخطب الدينية على المصلين. صُمم بتقنية تحويل النصوص إلى خطاب، ليخاطب الجيل الجديد بلغة تقنية تُقربهم من جوهر القيم الروحية كالتعاطف، والرحمة، والسلام الداخلي.
وفي الإمارات، قدّمت إحدى شركات EdTech بالتعاون مع جهات تربوية نموذجًا تعليميًا مدعومًا بالذكاء الاصطناعي للمدارس الإسلامية. النظام يُعلّم الأطفال آيات قرآنية وأحاديث نبوية، ويوجههم في مواقف حياتية تفاعلية تُغرس فيها قيم مثل الأمانة، احترام الوالدين، وضبط النفس. لم يكن مجرد تعليم ديني، بل نموذج لغوي يتفاعل مع الطفل ويقوده لاتخاذ قرارات “قِيَمية” قبل أن تكون منطقية.
في عام 2021، كشفت دراسة في Nature Machine Intelligence أن أنظمة التوظيف الآلية التي صُممت لتكون عادلة، أظهرت انحيازًا ضد النساء والأقليات. الآلة لا تُخطئ لأنها شريرة، بل لأنها فارغة. تملؤها بياناتنا، وتعيد إنتاج صمتنا، وتحاملنا، ونمط قراراتنا.
أما IBM، فقد طورت نظامًا ذكيًا لدعم الأطباء في علاج السرطان، إلا أن دقة توصياته لم تتجاوز 62%، وقد أوصى في بعض الحالات بخطط علاج خاطئة. لم يكن عديم النية، لكنه كان عديم التجربة والندم. الطبيب قد يتردد، يتواضع، يتراجع. أما الآلة، فتمضي بثقة الكود.
الذكاء الاصطناعي لا يملك ضميرًا، لكنه يتشكّل أخلاقيًا وفقًا للبيانات التي يُغذّى بها والبيئة التي يُطبّق فيها. فإن غُذّي فقط بالربح، سيتعلم أن الربح هو القيمة العليا. وإن زُوّد بخطابات عنصرية، سيتبناها كحقيقة. القيم لا تُدرج في السطر البرمجي، بل في ما يُختار أن يُغذّى به النموذج.
في بيئات العمل، نرفع شعار العدالة، لكن نكافئ الأكثر حضورًا لا الأكثر أثرًا. نطالب بالشفافية، ثم نخفي المعلومة بدافع “الحكمة”. نرفع شعار الأمانة، لكن تُمنح الترقيات بناءً على القرب لا الكفاءة. هذه التناقضات ليست ضعفًا في البشر، بل في وضوح المعايير. فإن كانت القيم تُفسَّر وفق السياق والمصلحة، فكيف نطلب من خوارزمية أن تزنها بعدل؟ عندما نختلف حول الأفضلية أو الاستحقاق، ما المرجع؟ الأداء؟ الولاء؟ الأثر؟ النتيجة؟ الجواب يختلف باختلاف من يُقيم… ومن يُقيَّم.
وهنا تظهر الحاجة لأن نُصيغ في التقنية ما لم نفلح بعد في صياغته بيننا: قيم متّفق عليها، واضحة، قابلة للقياس دون أن تُشوّه معناها.
ولهذا أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) وثيقة “مبادئ أخلاقيات الذكاء الاصطناعي”، لتكون أول إطار وطني في المنطقة يؤسس لاستخدام مسؤول وأخلاقي للذكاء الاصطناعي. تضمنت المبادئ: العدالة، الخصوصية، الشفافية، وعدم التحيز، وأكدت أن التقنية يجب أن تخدم الإنسان لا أن تسيّره. هذا الإطار مستلهم من القيم الإسلامية والثقافة السعودية، ويُعد نموذجًا واعدًا لإدماج المبادئ في البنية البرمجية، لا فقط في سياسات الاستخدام.
تقنيات مثل التوأمة الرقمية، التي تُستخدم لمحاكاة المدن والأنظمة، تطرح سؤالًا جديدًا: ماذا لو أُدرجت فيها قيم مستمدة من الشريعة أو من رؤية 2030؟ ماذا لو باتت تحاكي النوايا لا فقط السلوك؟ هل ستتغير النتائج؟
في الإدارة، حتى أدق الأنظمة الرقابية تصبح ميكانيكية وفارغة إذا لم تُغذَّ بقيمة. فالآلة قد تُنتج القرار الصحيح، لكنها لا تتردد لأجل إنسان، ولا تراجع نيتها… لأنها لا تملك نية.
وكما قال الدكتور غازي القصيبي: “إن أحسن النوايا لا تضمن أفضل النتائج.” فحتى النية تحتاج إلى وعي، مسؤولية، ومراجعة. وهذا ما نحتاجه في الأنظمة الذكية: ألا تكتفي بالصواب الرقمي، بل أن تُحاسب من الداخل قبل أن تُبرمج من الخارج.
في عالم يُعظّم الأداء… تذكّر أن هناك أشياء لا تُقاس، بل تُستشعر. نية لا تُرى، وخوف لا يُقال، ورحمة تتسلّل إلى القرار. فليس الرهان أن نرفع ذكاء الآلة، بل أن نحفظ إنسانيتنا ونحن نفعل ذلك.
سؤالي لك:
لو خُيّرت أن تُلقّن آلة ذكية أول قيمة تتعلمها من الإنسان… ما هي؟ ولماذا؟
شاركنا تحت وسم #قِيَمْ_تِك، فلعل ما تكتبه اليوم… يُصبح غدًا جزءًا من سياسات أخلاقيات الذكاء الاصطناعي التي تُرافق الرقمنة أينما ذهبت، سياسات لا تُبنى على سرعة المعالجة ودقّة النتائج، بل على البصيرة… وعلى ما لا تُتقنه الخوارزميات: النية، الرحمة، والضمير.
هذه تساؤلات كتبتها… لعلّي أجد من يجيب عليها.
فهل نملك نحن الإجابة؟ أم يمكن للذكاء الاصطناعي أن يجيب عنها نيابةً عنا؟
المراجع | References
- وثيقة مبادئ أخلاقيات الذكاء الاصطناعي – الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)
https://sdaia.gov.sa/en/SDAIA/about/Documents/ai-principles.pdf - The Guardian – Simulated AI drone controversy
https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test - Asahi Shimbun – Robot monk Mindar
https://www.asahi.com/ajw/articles/14861909 - Salaam Gateway – How AI-infused EdTech is helping transform learning
https://salaamgateway.com/story/how-ai-infused-edtech-is-helping-transform-learning - Nature Machine Intelligence – Bias in AI hiring systems
https://www.nature.com/articles/s42256-021-00359-5 - STAT News – IBM Watson recommended unsafe cancer treatments
https://www.statnews.com/2017/09/05/ibm-watson-recommended-unsafe-cancer-treatments/