Activity
Mon
Wed
Fri
Sun
Jan
Feb
Mar
Apr
May
Jun
Jul
Aug
Sep
Oct
Nov
Dec
What is this?
Less
More

Owned by Abdulrahman

انضمّ إلى أكاديمية علوم الدولية للذكاء الاصطناعي لإنشاء مشاريع ربحية قابلة للتنفيذ خلال أيام، ودون الحاجة إلى أية خبرة تقنية أو تكلفة تشغيلية

Memberships

117 contributions to تطوير النماذج العربية الذكية
نبذة تعريفية عن مؤسس المنصة
يُعدّ الدكتور عبدالرحمن الزراعي أحد المتخصصين العرب في تطوير تطبيقات الذكاء الاصطناعي التوليدي وصناعة النماذج التعليمية والبحثية المعتمدة على تقنيات جي بي تي. يعمل في مجال الإشراف الأكاديمي وتطوير المحتوى العلمي، ويقود عدداً من البرامج التدريبية المتقدمة التي تجمع بين هندسة التوجيهات الذكية (Prompt Engineering)، وتصميم النماذج المخصّصة (Custom GPTs)، وتطبيقات الذكاء الاصطناعي في البحث العلمي والتعليم وصناعة المحتوى. وتتميّز منهجيته التدريبية بالجمع بين: 1. التأسيس العلمي للمفاهيم المتعلقة بالذكاء الاصطناعي. 2. التطبيق العملي المباشر عبر ورش عمل تحاكي بيئات العمل الحقيقية. 3. تصميم نماذج GPT مخصّصة تلائم احتياجات الجهات التعليمية والبحثية. 4. إنتاج محتوى رقمي تفاعلي باستخدام أدوات الذكاء الاصطناعي الحديثة. يقدّم الدكتور الزراعي دوراته وورش عمله في إطار يسعى إلى تمكين الكفاءات الوطنية، ورفع مستوى الوعي التقني، ودعم الانتقال إلى بيئة تعليمية وبحثية تعتمد على الأتمتة الذكية وتوليد المعرفة. ___________ المشاركات: شارك مؤخراً في القمة العالمية للإعلام الذكي وتمكين الشباب المقامة في أسطنبول بورقة علمية عن: (النماذج العربية الذكية: من الهيمنة التقنية إلى الشراكة الإنسانية) __________ الدورات التدريبية: أسّس الدكتور الزراعي عدداً من البرامج والدبلومات المتخصصة، من أبرزها: - دبلوم الذكاء الاصطناعي التوليدي وصناعة البوتات، الموجّه للمطورين، وروّاد الأعمال، والباحثين، وصُنّاع المحتوى، والذي يركّز على تمكين المتدربين من بناء بوتات ذكية قادرة على التحليل والتفاعل وتوليد المخرجات بدقة عالية . - برنامج توظيف الذكاء الاصطناعي في خدمة البحث العلمي والتعليم، الذي يعزّز قدرات الباحثين والأكاديميين على استخدام تقنيات النماذج اللغوية في إعداد الخطط، وصياغة الإطار النظري، وتحليل البيانات، وبناء المحتوى التعليمي التفاعلي . - برامج متخصّصة في بناء النماذج الذكية، هندسة المطالبات، وصناعة المحتوى الإبداعي باستخدام الصور والفيديو والصوت بالذكاء الاصطناعي. تركّز أعماله على تمكين المتعلمين والباحثين من استخدام الذكاء الاصطناعي بطريقة عملية وأخلاقية وابتكارية، وإعداد جيل قادر على توظيف التقنيات الناشئة في بناء مشاريع بحثية وتعليمية وريادية ذات أثر ملموس. - ورشة عمل الذكاء الاصطناعي التوليدي في التعليم لدائرة الإشراف التربوي بوزاة التربية والتعليم بسلطنة عمان - المشاركة في مؤتمر الذكاء الاصطناعي والشريعة الإسلامية: الفرص والتحديات في ضوء الرؤية المستدامة بالعراق - شهادة توظيف الذكاء الاصطناعي في البحث العلمي من أكاديمية علوم الدولية - شهادة توظيف الذكاء الاصطناعي في الأبحاث العلمية من ملتقى البحث العلمي - مبادئ الذكاء الاصطناعي في التعليم من مركز الابتار الأمثل
نبذة تعريفية عن مؤسس المنصة
@Faisal Rayyan المتاح حاليا الدورات عن بعد - الحضوري لا استطيع إلا إذا كان هناك طلب رسمي من مؤسسة او مركز او جامعة
🎉✨ تهانينا… أنهينا مرتكزات الذكاء الاصطناعي! 🥰
يا لها من رحلة مدهشة قطعناها معًا! أنهينا دروس مرتكزات الذكاء الاصطناعي، وفتحنا بابًا واسعًا لفهم العالم الذي يصنع المستقبل. اليوم نحتفل بكم…وبشغفكم…وبقدرتكم على تحويل المعرفة إلى قوة وإبداع. استعدوا للمرحلة التالية—مرحلة البناء، التطبيق، وصناعة مشاريعكم الذكية ! 🚀🤖🔥 😍 مبارك لكم هذا الإنجاز… وما هو قادم أجمل. ________ بإمكانك الوصول السريع لجميع الدروس من هنا https://www.skool.com/zraiee-3956/classroom/79fc81f2?md=5451452c1b5642fa876dc7d146636fea
🎉✨ تهانينا… أنهينا مرتكزات الذكاء الاصطناعي! 🥰
الدرس 12 - مرتكزات الذكاء الاصطناعي - الأخلاقيات
مرتكزات الذكاء الاصطناعي المرتكز السادس: الأخلاقيات الدرس الثاني عشر: خارطة الطريق نحو ذكاءٍ اصطناعي مسؤول - خطوات عملية للمطورين والمستخدمين وصنّاع القرار بعد رحلة طويلة عبر فصول هذا المرتكز، تتضح لنا صورة واسعة لا تقتصر على المخاطر أو التحيزات أو التحديات المستجدة، بل تمتد إلى فهمٍ عميق لمعنى المسؤولية في عصر تتسارع فيه الخوارزميات أكثر مما تتسارع قدرة البشر على مواكبتها. لقد تعلمنا أن الذكاء الاصطناعي ليس آلة محايدة كما قد يبدو في مظهره الأول، بل هو منظومة أخلاقية تحتاج إلى صيانة مستمرة يشارك فيها الجميع. فالمطور يرسم عقل الآلة، والمستخدم يوجه سلوكها، وصانع القرار يضع الحدود التي تحفظ التوازن بين الابتكار والكرامة الإنسانية. ومع ذلك، فإن المعرفة وحدها لا تكفي، ما لم تتحول إلى خطوات عملية تعيد تشكيل الثقافة التقنية من جذورها. ويبدأ هذا الطريق من جهة المطورين، هؤلاء الذين يضعون اللبنات الأولى للأنظمة. فالأخلاق ليست طبقة خارجية تضاف بعد اكتمال البناء، بل يجب أن تكون جزءًا من تصميمه منذ اللحظة الأولى، كأنها خيط داخلي يربط كل وظيفة بالمسؤولية. ولتحقيق ذلك، يحتاج المطور إلى أن يبدأ مشروعه بتحديد القيم التي ينبغي للنظام أن يلتزم بها، مثل العدالة والشفافية وحماية الخصوصية. ثم تأتي مرحلة اختيار البيانات، لأن النظام مهما كان متطورًا، سيعكس ما تغذيه به تلك البيانات. وأخيرًا، لا يكتمل دور المطور دون اختبارات مستمرة تراقب الانحيازات وتكشف الأخطاء قبل وصولها إلى الناس. وهكذا يتحول المطور من مهندس كود إلى مهندس قيم، يُدرك أن كل قرار تقني يحمل أثرًا أخلاقيًا طويل الأمد. وعلى الجانب الآخر، يقف المستخدم الذي قد يبدو للوهلة الأولى طرفًا ضعيفًا أمام أنظمة عملاقة، لكنه في الحقيقة يملك قوة جماعية لا يستهان بها. فالتفاعل الواعي قادر على تعديل المسار العام للتقنية، ودفع الشركات نحو سلوك أكثر مسؤولية. ويتحقق هذا الوعي حين يتحقق المستخدم من صحة المحتوى قبل نشره، فلا يصبح أداة لتمرير الأخطاء أو نشر الأخبار المضللة. كما يتحقق حين يبلّغ عن الانحرافات الواضحة في مخرجات الأنظمة، أو يرفض استخدام النماذج في إنتاج محتوى عدواني أو مضلل. وبهذا يصبح المستخدم شريكًا في حماية الفضاء الرقمي، لا مجرد متلقٍّ سلبي لما تنتجه الخوارزميات. ثم تأتي مسؤولية صنّاع القرار، الذين يحملون على عاتقهم مهمة التوازن بين حرية الإبداع وحماية الإنسان. فلا يمكن ترك التقنية رهينة السوق وحده، ولا يمكن في الوقت نفسه خنقها بقيود تجعل الابتكار بطيئًا ومثقلاً. وينطلق دور صانع القرار من وضع تشريعات واضحة تحدد ما هو مسموح وما هو محظور، وتضع حدودًا للأخطاء التي لا يجوز تجاوزها. كما يجب أن يشارك في تعاون دولي، لأن الذكاء الاصطناعي يعبر الحدود بثوانٍ، ولا يمكن مواجهته داخل إطار وطني محدود. ولتكتملالصورة، ينبغي أن يُموِّل البحث في الأخلاقيات التقنية، تمامًا كما يُموِّل البحوث الطبية والهندسية، لأن إدماج القيم في النظام ليس رفاهية بل ضرورة.
Poll
2 members have voted
الدرس 12 - مرتكزات الذكاء الاصطناعي - الأخلاقيات
الدرس 11 - مرتكزات الذكاء الاصطناعي - الأخلاقيات
الدرس الحادي عشر: دور المستخدم في الحفاظ على الأخلاق - كيف نصبح شركاء مسؤولين في الحوار مع الآلة؟ حين ننظر إلى مشهد الذكاء الاصطناعي اليوم، نجد أن الأضواء تتجه دائمًا نحو المطورين والمختبرات والشركات الكبرى التي تبني الخوارزميات وتطلق النماذج. لكن خلف هذا المشهد الصاخب، يقف طرف لا يقل أهمية عن الجميع: المستخدم. فهو الذي يعطي للنظام شكله اليومي، وهو الذي يحدد طبيعة أسئلته، وطريقة استخدامه للمخرجات، والمسار الذي تتبعه التقنية في المجتمع. وإذا كانت الأخلاقيات تبدأ من مرحلة التصميم، فإنها تُختبر في لحظة الاستخدام، لأن النموذج مهما كان عادلًا ومسؤولًا، يمكن للمستخدم أن يحوّله في لحظة إلى أداة إيذاء، أو وسيلة تضليل، أو قناة نشر لمحتوى منحاز. وهكذا يظهر أن الأخلاق في عصر الذكاء الاصطناعي ليست ملكًا لجهة واحدة، بل عقدًا اجتماعيًا رقميًا يُبنى على وعي الأفراد ومسؤوليتهم. ويأتي وعي المستخدم ليكون الدرع الأول في مواجهة الانحراف. فالوعي هنا لا يعني مجرد معرفة تقنية، بل فهمًا عميقًا لأثر كل سؤال يطرحه الفرد، وكل مخرج يقرّر مشاركته مع الآخرين. فعندما تطلب من نموذج توليدي نصًا أو تحليلًا أو صورة، فإنك لا تعطي أمرًا بسيطًا، بل تحرك سلسلة قد تؤثر في معلومات الناس، وفي مشاعرهم، وفي قراراتهم كذلك. ولهذا يصبح التفكير في النتائج خطوة أخلاقية لا تقل أهمية عن دقة المحتوى نفسه. ويزداد هذا الوعي أهمية حين يدرك المستخدم حدود الذكاء الاصطناعي: أنه لا يعرف نية السائل، ولا يميز بين المزاح والإساءة، وأنه لا يستطيع الحكم على صدق المعلومات ما لم يُقدَّم له محتوى واضح، متوازن، وخالٍ من الخداع. ومن هذا الوعي ينبع الاستخدام المسؤول، وهو الوجه العملي للأخلاق في عالم الذكاء الاصطناعي. ويقوم هذا الاستخدام على احترام القوانين والأنظمة، وعدم توجيه النماذج نحو إنتاج محتوى هدام أو مسيء، سواء كان تحريضًا أو تشويهًا أو تضليلًا مقصودًا. كما يقوم على التحقق من دقة المعلومات قبل نشرها، لأن النماذج قد تنتج مخرجات غير دقيقة، ومن واجب المستخدم مراجعتها بعين نقدية. ويتطلب الاستخدام المسؤول كذلك التمييز بين الإبداع الذي يضيف للمعرفة، وبين التزييف الذي يخدع الجمهور. وبهذا يتحول المستخدم إلى حارس يقظ، يحمي الفضاء الرقمي من الانزلاق إلى الفوضى، لا إلى مجرد مستهلك للمحتوى. ويأتي بعد ذلك دور التغذية الراجعة بوصفها أداة أخلاقية مهمة تقلّص الأخطاء وتعيد ضبط المسار. فحين يلاحظ المستخدم انحرافًا أو تحيزًا أو خطأ في استجابة النموذج، ويقرر الإبلاغ عنه بدل تجاهله، فإنه يشارك في تحسين النظام وفي تطوير معاييره. وهذه المشاركة ليست رفاهية، بل ضرورة، لأن النماذج لا تستطيع اكتشاف كل عيوبها ذاتيًا، بل تحتاج إلى عين بشرية ترى أثر القرار في الواقع. ومن دون هذه التغذية، تُترك الأخطاء تتكرر بصمت، حتى تتحول إلى جزء من السلوك العام للنظام، ويصبح تصحيحها أصعب بمرور الوقت.
Poll
2 members have voted
الدرس 11 - مرتكزات الذكاء الاصطناعي - الأخلاقيات
الدرس 10 - مرتكزات الذكاء الاصطناعي - الأخلاقيات
الدرس العاشر: التحديات الأخلاقية في المستقبل – إلى أين سنصل عندما تصبح الآلة جزءًا من حياتنا اليومية؟ تخيّل صباحًا تستيقظ فيه لتكتشف أن كل ما يحيط بك "يفكّر" بطريقةٍ ما. منزلك يضبط إضاءته وحرارته وفق حالتك النفسية دون أن تطلب، وسيارتك تختار الطريق الأنسب قبل أن تنظر إلى الخريطة، وساعتك تنبّهك إلى أن تتنفس بعمق لأن نبضك ارتفع قليلًا، وهاتفك يعرض أولوياتك اليومية وكأنه قرأ ذهنك. هذا كله ليس خيالًا بعيدًا، بل هو ملامح زمنٍ جديد تصبح فيه الآلة شريكًا دائمًا، لا مجرد أداة. ومع هذا الاندماج العميق، تبدأ الأسئلة الأخلاقية تتصاعد: كيف نضمن ألا تتحول هذه الشراكة إلى عبءٍ غير مرئي؟ وكيف نمنع التقنية من السيطرة على ما هو أعمق في الإنسان من قدرته العقلية؟ ويعبّر مفهوم "المستقبل المندمج" عن مرحلة يصبح فيها الذكاء الاصطناعي حاضرًا في تفاصيل الحياة بكل دقة، حتى يصعب على الإنسان أن يميّز بين ما يفعله بنفسه وما تفعله الخوارزميات نيابة عنه. فالأجهزة المنزلية، والأنظمة الطبية، ووسائل النقل، ومؤسسات التعليم، ومجالات الترفيه—كلها تعمل بتناغم رقمي مستمر، تتعلّم من سلوك الإنسان وتتكيف معه لحظة بلحظة. غير أن هذا القرب الشديد يضع الإنسان في دائرة مراقبة غير منقطعة، تسجّل فيها الأنظمة كل حركة وتستنتج من خلالها الكثير. وهنا يظهر التحدي الأخلاقي الجوهري: إلى أي مدى يمكن الوثوق بمنظومة تعرف عنك ما لا تعرفه أنت عن نفسك؟ ومع ازدياد هذا الاندماج، تتضاعف التحديات الأخلاقية التي لا بد من الوقوف أمامها بوعي ومسؤولية. فمن أخطرها الاعتماد المفرط على الأنظمة الذكية؛ إذ يفقد الإنسان تدريجيًا قدرته على اتخاذ القرارات، ويستبدل مهاراته الطبيعية بتعليمات جاهزة تقدّمها له الخوارزميات. وما يبدأ كراحة بسيطة قد ينتهي بضعف في القدرة على الحكم الشخصي، وكأن العقل يُسلِّم مفاتيحه إلى آلة لا تتعب. ويأتي بعده تحدّي التحكم والسيطرة: فإذا أصبحت الأنظمة الذكية جزءًا من كل حركة يومية، فمن يستطيع إيقافها عند الخط الأحمر؟ وهل سيظل هناك زر طوارئ بشري قادر على تعطيل قرارٍ اتخذته خوارزمية متقدمة؟ وتتسع هذه الإشكالات عندما ندرك خطورة الخصوصية المستمرة، فالأجهزة الذكية ستعرف تفاصيل دقيقة عن حياة الفرد: عاداته الصحية، أوقاته الحساسة، تغيرات مزاجه، وأنماط سلوكه المتكررة. ومع أن هذه البيانات تمنح المستخدم راحة كبيرة في حياته اليومية، إلا أنها تفتح الباب لأسئلة صعبة حول ملكية البيانات ومن يحق له استخدامها. ويزداد الأمر تعقيدًا بوجود خطر التحيز المتراكم، فالنظام الذي يتعلم بشكل مستمر من بيانات غير متوازنة سيعيد إنتاج أخطائه بشكل أوسع، وقد يصبح الانحياز جزءًا من الواقع بدل أن يكون مجرد خلل مؤقت.
Poll
2 members have voted
الدرس 10 - مرتكزات الذكاء الاصطناعي - الأخلاقيات
1-10 of 117
Abdulrahman Alzarraei
6
526points to level up
@abdulrahman-alzaraei-2083
مطور النماذج العربية الذكية

Active 3h ago
Joined Nov 3, 2025
INTJ
Riyadh