سياسة استخدام الذكاء الاصطناعي (AI)

تُدرك المجلة العربية الألمانية لعلوم الشريعة والقانون (AGJSLS) الدور المتزايد الذي تلعبه أدوات الذكاء الاصطناعي (AI) — بما في ذلك النماذج اللغوية الضخمة (LLMs) والأنظمة التوليدية — في مجالات البحث العلمي، والكتابة الأكاديمية، والتحكيم، والنشر.

تلتزم المجلة بالحفاظ على معايير النزاهة العلمية وأخلاقيات النشر وفقًا للمبادئ الصادرة عن لجنة أخلاقيات النشر (COPE)، وتدعم الاستخدام المسؤول للتقنيات الحديثة مع التأكيد على أن جميع الأعمال المنشورة يجب أن تكون نتاج جهد فكري بشري وتحمل كامل المسؤولية الأخلاقية والعلمية.

توضح الإرشادات التالية كيفية الاستخدام المسموح به لأدوات الذكاء الاصطناعي من قبل المؤلفين والمراجعين والمحررين في المجلة.


أولاً: للمؤلفين

1.1 الاستخدام المسؤول للذكاء الاصطناعي

  • يجوز للمؤلفين استخدام أدوات الذكاء الاصطناعي لتحسين اللغة أو الوضوح أو البنية اللغوية للنص. ولا يتطلب هذا الاستخدام المحدود الإفصاح الرسمي.

  • يظل المؤلفون مسؤولين بشكل كامل عن أصالة العمل ودقته وسلامته العلمية، سواء تم استخدام أدوات الذكاء الاصطناعي أم لا.

1.2 الذكاء الاصطناعي التوليدي والإفصاح

  • إذا تم استخدام أدوات الذكاء الاصطناعي لإنشاء محتوى جوهري مثل النصوص أو البيانات أو الصور أو الأفكار، فيجب الإفصاح بوضوح عن ذلك داخل البحث.

  • يجب أن يتضمن الإفصاح اسم الأداة، ورقم إصدارها، والغرض المحدد من استخدامها (على سبيل المثال: "تم استخدام ChatGPT – OpenAI، الإصدار 4، للمساعدة في تلخيص الدراسات السابقة").

  • لا يجوز إدراج أدوات الذكاء الاصطناعي كمؤلفين مشاركين، لأنها لا تتحمل المسؤولية الأخلاقية أو القانونية عن المحتوى.

1.3 الدقة والتحقق

  • يتحمل المؤلفون مسؤولية التحقق من دقة المعلومات وصحة المصادر وخلوّ النص من الانتحال أو التلفيق.

  • يُمنع استخدام أدوات الذكاء الاصطناعي لإنشاء بيانات مزيفة أو مراجع مختلقة أو محتوى مضلل.


ثانيًا: للمراجعين (المحكّمين)

2.1 الممارسات الأخلاقية في التحكيم

  • يمكن للمراجعين استخدام أدوات الذكاء الاصطناعي لتحسين وضوح تقارير التحكيم لغويًا فقط، دون الاعتماد عليها في تقييم المحتوى العلمي للبحث.

  • يجب أن تستند عملية التقييم إلى خبرة المراجع وحكمه الأكاديمي الشخصي.

2.2 السرية وأمن المعلومات

  • يُمنع إدخال أي جزء من المخطوطات أو المواد غير المنشورة في أنظمة الذكاء الاصطناعي التي تخزّن أو تعالج البيانات خارجيًا.

  • يُعدّ خرق السرية من خلال استخدام أدوات الذكاء الاصطناعي انتهاكًا خطيرًا لأخلاقيات النشر وفقًا لإرشادات COPE.


ثالثًا: للمحررين

3.1 الإشراف التحريري

  • يجوز للمحررين استخدام أدوات الذكاء الاصطناعي لأغراض فنية أو إدارية محدودة مثل التدقيق اللغوي أو فحص التشابه أو اقتراح المحكّمين.

  • لا يجوز استخدام الذكاء الاصطناعي في صياغة القرارات التحريرية أو تحليل المخطوطات غير المنشورة أو اتخاذ قرارات النشر.

3.2 المسؤولية

  • يتحمل رئيس التحرير وهيئة التحرير كامل المسؤولية عن ضمان توافق استخدام الذكاء الاصطناعي داخل المجلة مع الممارسات الأساسية لـ COPE ومع معايير النزاهة العلمية التي تعتمدها المجلة.


رابعًا: سوء الاستخدام أو عدم الإفصاح

  • أي استخدام غير مناسب أو غير معلن لأدوات الذكاء الاصطناعي أثناء عملية النشر أو التحكيم سيخضع لإجراءات المجلة الخاصة بأخلاقيات النشر.

  • وفقًا لنتائج التحقيق، قد تتخذ المجلة إجراءات مثل رفض البحث أو تصحيح المقال أو سحبه، وذلك تماشيًا مع توصيات COPE.