قرار من "سامسونغ" بشأن استخدام أدوات الذكاء الاصطناعي داخل الشركة

SAMSUNG Company
كتب بواسطة: محمد فارع | نشر في  twitter

حظرت شركة "سامسونغ" استخدام موظفيها لأدوات الذكاء الاصطناعي التوليدية الشهيرة مثل (ChatGPT)، بعد اكتشافها قيام موظفين بتحميل كود حساس على النظام الأساسي للشركة.

وأخطرت الشركة، ومقرها كوريا الجنوبية، الموظفين في أحد أكبر أقسامها، بشأن السياسة الجديدة.
إقرأ ايضاً:متطلبات التسجيل في جامعة عجمان الإماراتيةضبط 1461 من الوافدين في الكويت لهذا السبب الصادم مكافأة الانتقال 16% من الراتب الأساسي!! عبدالرحمن العيبان يكشف التفاصيلمتوسطة الأجل.. سندات دولية مطلقة من شركة أرامكو بقيمة تزيد عن 5 مليارات دولار

ووفقا للوثيقة، تشعر الشركة بالقلق من أن البيانات التي يتم إرسالها إلى منصات الذكاء الاصطناعي هذه، بما في ذلك (Google Bard) و(Bing) يتم تخزينها على خوادم خارجية، مما يجعل من الصعب استردادها وحذفها، وقد ينتهي الأمر بالكشف عنها لمستخدمين آخرين.

وأجرت الشركة استبيانا الشهر الماضي حول استخدام أدوات الذكاء الاصطناعي داخليًا، حيث قالت أن 65٪ من المشاركين يعتقدون أن مثل هذه الخدمات تشكل خطرًا أمنيًا.

وبوقتٍ سابق من أبريل، سرب مهندسو "سامسونغ" عن طريق الخطأ كود المصدر الداخلي عن طريق تحميله إلى (ChatGPT).

وقالت "سامسونغ" للموظفين: "الاهتمام بمنصات الذكاء الاصطناعي التوليدية مثل (ChatGPT) ينمو داخليًا وخارجيًا، وبينما يركز هذا الاهتمام على فائدة وكفاءة هذه المنصات، هناك أيضًا مخاوف متزايدة بشأن المخاطر الأمنية التي يقدمها الذكاء الاصطناعي التوليدي".

وتحظر قواعد "سامسونغ" الجديدة استخدام أنظمة الذكاء الاصطناعي التوليدية على أجهزة الكمبيوتر، والأجهزة اللوحية، والهواتف المملوكة للشركة، وكذلك على شبكاتها الداخلية.

ولا تؤثر هذه القرارات على أجهزة الشركة المباعة للمستهلكين، مثل الهواتف الذكية التي تعمل بنظام "أندرويد" وأجهزة الكمبيوتر المحمولة التي تعمل بنظام "ويندوز".

وطالبت "سامسونغ" الموظفين الذين يستخدمون (ChatGPT) والأدوات الأخرى على الأجهزة الشخصية، ألا يُرسل أي معلومات متعلقة بالشركة، أو بيانات شخصية يمكن أن تكشف عن ملكيتها الفكرية، وحذرت من أن انتهاك هذه السياسات الجديدة من الممكن أن يؤدي إلى الطرد.

اقرأ ايضاً
الرئيسية | اتصل بنا | سياسة الخصوصية | هئية التحرير