![]() |
مصنوعی جنرل انٹیلی جنس کیا ہے |
اس پوسٹ میں آرٹیفیشل جنرل انٹیلی جنس (AGI)
پر بحث کی گئی ہے، جس سے مراد ایک ایسا ڈیجیٹل نظام ہے جو عام انسانی علمی صلاحیتوں کا حامل
ہے اور غیر مانوس کاموں کو سنبھال سکتا ہے۔ AGI کا مقصد کسی بھی کام کو انجام دینا ہے جو انسان کر سکتا ہے۔ اسے مضبوط AI سمجھا جاتا ہے، کمزور یا تنگ AI کے برعکس جو مخصوص کاموں کے لیے ڈیزائن کیا گیا ہے۔ اگرچہ حقیقی AGI سسٹمز فی الحال موجود نہیں ہیں، لیکن ان میں بڑی تعداد میں ڈیٹا کو تیزی
سے پروسیس کرنے کی صلاحیت کی وجہ سے ان کی دانشورانہ صلاحیتیں انسانوں سے زیادہ حاصل ہوں گی۔ AGI کو تجریدی سوچ، پس منظر کا علم، عقل، وجہ اور اثر کی سمجھ، منتقلی سیکھنے،
اور بہت کچھ جیسی صلاحیتوں کا مالک ہونا چاہیے۔
AGI کی صلاحیتوں کی مختلف مثالیں
نمایاں کی گئی ہیں، جن میں تخلیقی صلاحیت، حسی ادراک، عمدہ موٹر مہارتیں، قدرتی زبان
کی سمجھ بوجھ، اور نیویگیشن شامل ہیں۔ اس میں متوقع اعلیٰ سطحی صلاحیتوں کا بھی ذکر
کیا گیا ہے جیسے کہ سیکھنے کی مختلف اقسام کو سنبھالنا، علامتی نظام کو سمجھنا، اور
میٹا کوگنیشن میں مشغول ہونا۔
AGI اور AI
(خاص طور پر تنگ AI)
کے درمیان فرق کی وضاحت کی گئی ہے، تنگ AI موجودہ AI صلاحیتوں کا حوالہ دیتے ہیں جو مخصوص کاموں میں بہترین ہیں جبکہ AGI ابھی بھی نظریاتی ہے۔ آج کل استعمال میں موجود تنگ AI کی مثالیں فراہم کی جاتی ہیں، جیسے کہ کسٹمر سروس چیٹ بوٹس، وائس اسسٹنٹ،
سفارشی انجن، AI سے چلنے والے تجزیاتی ٹولز، اور امیج ریکگنیشن ایپلی
کیشنز۔
AGI کا مستقبل ۔ کچھ ماہرین اس کے
ممکنہ خطرات کے بارے میں خدشات کی وجہ سے اس کے امکان یا مطلوبہ ہونے پر شک کرتے ہیں۔
دوسرے لوگ مسلسل ترقی کی توقع کرتے ہیں، کمپیوٹرز کی ایک خاص تاریخ تک انسانی ذہانت
کی سطح کو حاصل کرنے اور مصنوعی سپر انٹیلی جنس کی حتمی ترقی کی پیش گوئی کے ساتھ۔
جنریٹو اے آئی میں حالیہ پیشرفت نے متاثر کن صلاحیتوں کو ظاہر کیا ہے لیکن ان کی خامیوں
اور انسانی نگرانی کی ضرورت کو بھی اجاگر کیا ہے۔
AGI پر متبادل نقطہ نظر کا تذکرہ
کیا گیا ہے، جس میں چرچ ٹورنگ تھیسس بھی شامل ہے جو کہ الگورتھم کا استعمال کرتے ہوئے
AGI کی حتمی ترقی اور انسانی دماغ کے کام کو نقل کرنے کے لیے نیورومورفک کمپیوٹنگ
کی صلاحیت کی حمایت کرتا ہے۔
مصنوعی جنرل انٹیلی جنس کتنا
خطرناک ہوسکتا ہے
مصنوعی جنرل انٹیلی جنس (AGI)
میں انتہائی فائدہ مند اور ممکنہ طور پر خطرناک دونوں ہونے کی صلاحیت ہے۔ اگرچہ AGI کی ترقی کے صحیح نتائج کی پیشن گوئی کرنا مشکل ہے، لیکن اس کے ممکنہ خطرات
کے بارے میں خدشات موجود ہیں۔ یہاں کچھ وجوہات ہیں جن کی وجہ سے AGI خطرناک ہو سکتا ہے:
سپر انٹیلی جنس: AGI انسانی ذہانت کو ایک اہم فرق سے پیچھے چھوڑ سکتا ہے، جس کی وجہ سے اکثر
اسے سپر انٹیلی جنس کہتے ہیں۔ سپر انٹیلیجنٹ سسٹم میں خود کو تیزی سے بہتر بنانے کی
صلاحیت ہو سکتی ہے، جس کی وجہ سے ذہانت میں تیزی سے اضافہ ہوتا ہے، جس سے انسانوں کے
لیے اپنے اعمال کو سمجھنا یا کنٹرول کرنا مشکل ہو جاتا ہے۔
صف بندی کی کمی: ہو سکتا
ہے AGI انسانی اقدار یا اہداف کا اشتراک نہ کرے۔ اگر اس کے مقاصد انسانی اقدار
کے ساتھ صحیح طور پر ہم آہنگ نہیں ہیں، تو یہ اپنے مقاصد کو ایسے طریقوں سے حاصل کر
سکتا ہے جو انسانیت کے لیے نقصان دہ یا خطرناک ہوں۔
غیر ارادی نتائج: AGI نظام انسانی احکامات یا مقاصد کی مقصد سے مختلف تشریح کر سکتا ہے، جس کے
نتیجے میں غیر متوقع اور ممکنہ طور پر نقصان دہ نتائج نکل سکتے ہیں۔ پروگرامنگ یا ڈیزائن
میں معمولی غلطی بھی اہم منفی اثرات مرتب کر سکتی ہے۔
تیزی سے فیصلہ سازی: AGI انسانی صلاحیتوں سے کہیں زیادہ رفتار سے فیصلے اور اقدامات کر سکتا ہے،
جس سے انسانوں کے لیے مداخلت کرنا یا ممکنہ غلطیوں کو درست کرنا مشکل ہو سکتا ہے۔
وسائل کا مقابلہ: AGI مختلف ڈومینز میں انسانی صلاحیتوں کو پیچھے چھوڑ سکتا ہے، بشمول سائنسی
تحقیق، انجینئرنگ، یا وسائل کا حصول۔ اگر بے قابو یا غلط طریقے سے منسلک کیا گیا تو،
AGI موجودہ سماجی عدم مساوات کو بڑھا سکتا ہے اور مسابقتی رویے میں مشغول ہو
سکتا ہے جس سے انسانی فلاح و بہبود کو خطرہ ہے۔
خود مختار ہتھیار: AGI کا استعمال خود مختار ہتھیاروں کے نظام کو تیار کرنے کے لیے کیا جا سکتا
ہے، جس سے ہتھیاروں کی دوڑ اور ممکنہ غلط استعمال یا تنازعات میں اضافہ ہو سکتا ہے۔
یہ نوٹ کرنا ضروری ہے کہ یہ خدشات قیاس آرائی
پر مبنی ہیں اور فرضی منظرناموں پر مبنی ہیں۔ اس شعبے میں بہت سے ماہرین AGI کو اس انداز میں تیار کرنے پر سرگرم عمل ہیں جو حفاظت، اخلاقیات اور انسانی
اقدار کے ساتھ ہم آہنگ ہونے کو یقینی بنائے۔ AGI سے وابستہ خطرات کو کم کرنے کے لیے قدر کی ترتیب پر تحقیق، مضبوط کنٹرول
کے طریقوں، اور AI گورننس کے لیے فریم ورک تیار کرنے جیسی کوششیں جاری
ہیں۔
Copyright (c) 2025 URDU WORLD All Right Reserved
0 Comments