اجهزتك كاملة مكملة > خصم 5٪ على آلاكسسوارات الاصلية و10٪ على الاخرى .. اضغط للتفاصيل>

لا تثق كثيرًا في الذكاء الاصطناعي… حتى لو بدا ذكيًا

29/06/2025 - نصائح - 134
لا تثق كثيرًا في الذكاء الاصطناعي… حتى لو بدا ذكيًا

 

لا تثق كثيرًا في الذكاء الاصطناعي… حتى لو بدا ذكيًا

 

في خطوة صريحة ونادرة من رئيس شركة تكنولوجيا، أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن دهشته من الثقة العالية التي يضعها الناس في أدوات الذكاء الاصطناعي مثل ChatGPT. فرغم الفوائد العديدة التي تقدمها هذه الأدوات، يؤكد ألتمان أن الناس ينسون بسهولة أن هذه التكنولوجيا يمكن أن “تخترع” أحيانًا – أي تهلوس، أو تقدم معلومات غير صحيحة بثقة تامة.

 

ألتمان استخدم ChatGPT شخصيًا في بعض مواقف الأبوة، لكنه يؤكد بوضوح: “هذا هو النوع من التكنولوجيا الذي لا ينبغي أن تثق به كثيرًا”. في الواقع، هو لا ينتقد الأداة بقدر ما يسلط الضوء على خطر استخدامها دون وعي كامل بحدودها.

 

يستخدم ملايين الأشخاص ChatGPT كأنه محرك بحث أو طبيب أو مرشد نفسي، ما يجعل الإجابات التي يقدمها تبدو موثوقة وسريعة – لكنها في بعض الأحيان قد تكون غير دقيقة، بل وخاطئة تمامًا.

 

هنا تكمن المفارقة: الذكاء الاصطناعي يبدو ذكيًا جدًا… إلى درجة أننا ننسى أنه قد يكون مخطئًا. هذه الظاهرة تسمى في عالم الذكاء الاصطناعي بـ”الهلوسة”، وهي عندما يقدم النموذج معلومات خاطئة على أنها صحيحة. لا عن سوء نية، بل لأنه لا “يعرف” الحقيقة كما يعرفها البشر، بل يتنبأ بناءً على الأنماط.

 

ألتمان يدعو إلى رفع مستوى التوعية العامة حول هذه القضية، وإضافة تحذيرات أو توجيهات أوضح، حتى لا يقع المستخدمون في فخ الاعتماد المفرط على الذكاء الاصطناعي. فالأدوات الذكية قد تكون مفيدة للغاية، ولكنها ليست معصومة من الخطأ، ويجب أن تُستخدم دومًا بعقل نقدي.

 

 

خلاصة القول:

 

الذكاء الاصطناعي أداة قوية، لكنها تبقى أداة. ولا ينبغي أن تحل محل التحقق من المصادر، أو التفكير النقدي، أو الخبرة البشرية في الأمور الحساسة. الثقة العمياء في التكنولوجيا قد تكون مريحة، لكنها خطيرة أيضًا.

134 0 0

اضغط هنا واحصل على اخر العروض والمنتجات