- Published on
بڑے ماڈلز بنانے کا بہترین طریقہ سی ای او کا خیال ہے کہ سکیلنگ کا قانون دیوار سے نہیں ٹکرا رہا
مصنوعی ذہانت کی ترقی میں سکیلنگ کا قانون
انتھروپک کے سی ای او ڈاریو اموڈی کے مطابق، مصنوعی ذہانت (AI) ماڈلز کی سکیلنگ کے قوانین ابھی اپنی حد تک نہیں پہنچے ہیں۔ انہوں نے اس بات پر زور دیا کہ ڈیٹا کی کمی کو مصنوعی ڈیٹا اور استدلالی ماڈلز کے ذریعے دور کیا جا سکتا ہے۔
- سکیلنگ کے قوانین: اموڈی کا ماننا ہے کہ AI ماڈلز کو مزید بہتر بنانے کے لیے، سکیلنگ کا عمل جاری رہنا چاہیے۔
- ڈیٹا کی رکاوٹیں: اگرچہ ڈیٹا کی کمی ایک ممکنہ مسئلہ ہے، لیکن مصنوعی ڈیٹا اور استدلالی ماڈلز اس کو حل کر سکتے ہیں۔
ماڈل کی کارکردگی میں بہتری
AI ماڈلز کی کارکردگی میں نمایاں بہتری آئی ہے۔ SWE-bench جیسے معیارات پر ماڈلز کی کارکردگی 3-4% سے بڑھ کر 50% تک پہنچ گئی ہے، وہ بھی صرف دس مہینوں میں۔ مزید بہتری کی توقع کی جا رہی ہے۔
- بینچ مارک میں بہتری: SWE-bench پر ماڈلز کی کارکردگی میں زبردست اضافہ ہوا ہے۔
- مزید بہتری: مستقبل میں ماڈلز کی کارکردگی میں مزید بہتری کی توقع ہے۔
پوسٹ ٹریننگ کی اہمیت
مستقبل میں پوسٹ ٹریننگ کی لاگت، پری ٹریننگ سے زیادہ ہونے کا امکان ہے۔ ماڈل کوالٹی کو بہتر بنانے کے لیے صرف انسانی طریقے قابل توسیع نہیں ہیں، اس لیے زیادہ قابل توسیع نگرانی کے طریقوں کی ضرورت ہے۔
- پوسٹ ٹریننگ لاگت: پوسٹ ٹریننگ کی لاگت مستقبل میں پری ٹریننگ سے زیادہ ہو سکتی ہے۔
- قابل توسیع نگرانی: ماڈل کوالٹی کو بہتر بنانے کے لیے قابل توسیع نگرانی کے طریقوں کی ضرورت ہے۔
ماڈلز کے درمیان فرق
ماڈل کی خصوصیات اور ان کے درمیان فرق ہمیشہ بینچ مارکس سے ظاہر نہیں ہوتا۔ شائستگی، راست گوئی، جوابی صلاحیت اور فعال ہونا جیسے عوامل بھی اہم کردار ادا کرتے ہیں۔
- بینچ مارکس کی حدود: بینچ مارکس ماڈلز کی تمام خصوصیات کو ظاہر نہیں کرتے۔
- اضافی عوامل: ماڈلز کی کارکردگی میں شائستگی اور جوابی صلاحیت جیسے عوامل بھی اہم ہیں۔
آر ایل ایچ ایف کا کردار
ری انفورسمنٹ لرننگ فرام ہیومن فیڈ بیک (RLHF) ماڈلز کو بنیادی طور پر ذہین بنانے کے بجائے، انسانوں اور ماڈلز کے درمیان مواصلت کے فرق کو کم کرتا ہے۔
- مواصلت کا پل: آر ایل ایچ ایف انسانوں اور ماڈلز کے درمیان مواصلت کو بہتر بناتا ہے۔
- ذہانت میں اضافہ نہیں: آر ایل ایچ ایف ماڈلز کو بنیادی طور پر زیادہ ذہین نہیں بناتا۔
صارفین کے تاثرات
ماڈلز کے "بیوقوف" ہونے کے بارے میں صارفین کے تاثرات ضروری نہیں کہ غلط ہوں۔ یہ ماڈلز کی پیچیدگی اور ان کی کارکردگی پر اثر انداز ہونے والے کئی عوامل کی وجہ سے ہو سکتے ہیں۔
- پیچیدگی کا اثر: ماڈلز کی پیچیدگی صارفین کے تاثرات پر اثر انداز ہو سکتی ہے۔
- متعدد عوامل: ماڈلز کی کارکردگی پر کئی عوامل اثر انداز ہوتے ہیں۔
ماڈل ڈیزائن
ماڈلز کو کام کرنے اور ٹاسک مکمل کرنے کے لیے ڈیزائن کیا گیا ہے، نہ کہ انسانوں کے لیے آسانی سے سمجھنے کے لیے۔
- فنکشنل ڈیزائن: ماڈلز کو کام کرنے کے لیے ڈیزائن کیا گیا ہے۔
- انسانی فہم سے بالاتر: ماڈلز کو آسانی سے سمجھنا ممکن نہیں ہے۔
عملی تجربہ
صرف تحقیقی مقالے پڑھنے کے بجائے، ماڈلز کے ساتھ براہ راست تعامل ان کو سمجھنے کے لیے بہت ضروری ہے۔
- براہ راست تعامل: ماڈلز کو سمجھنے کے لیے ان کے ساتھ براہ راست تعامل ضروری ہے۔
- تحقیق کی حدود: صرف تحقیقی مقالے پڑھنا ماڈلز کو سمجھنے کے لیے کافی نہیں ہے۔
آئینی AI
یہ طریقہ ماڈلز کو بہتر بنانے، آر ایل ایچ ایف پر انحصار کم کرنے اور ہر آر ایل ایچ ایف ڈیٹا پوائنٹ کے استعمال کو بڑھانے کا ایک ذریعہ ہے۔
- بہتری کا ذریعہ: آئینی AI ماڈلز کو بہتر بنانے کا ایک اہم ذریعہ ہے۔
- آر ایل ایچ ایف پر انحصار کم: یہ طریقہ آر ایل ایچ ایف پر انحصار کو کم کرتا ہے۔
ڈاریو اموڈی کا تجربہ
اموڈی تقریباً 10 سال سے AI کے شعبے میں کام کر رہے ہیں۔ انہوں نے دیکھا کہ ماڈل کے سائز، ڈیٹا اور تربیت کے وقت میں اضافہ کرنے سے کارکردگی بہتر ہوتی ہے۔
- AI کا تجربہ: اموڈی کو AI کے شعبے میں 10 سال کا تجربہ ہے۔
- بہتر کارکردگی: ماڈل کے سائز، ڈیٹا اور تربیت کے وقت میں اضافہ سے کارکردگی بہتر ہوتی ہے۔
سکیلنگ قانون کی تصدیق
2014 سے 2017 تک کا عرصہ اہم تھا، جس نے تصدیق کی کہ ماڈل کے سائز کو بڑھا کر پیچیدہ علمی کاموں کو حاصل کیا جا سکتا ہے۔
- اہم تبدیلی: 2014 سے 2017 تک کا عرصہ سکیلنگ کی تصدیق کے لیے اہم تھا۔
- پیچیدہ کام: ماڈل کے سائز کو بڑھا کر پیچیدہ علمی کام کیے جا سکتے ہیں۔
سکیلنگ کے اجزاء
سکیلنگ میں نیٹ ورک کے سائز، تربیت کے وقت اور ڈیٹا میں یکساں اضافہ شامل ہے۔ ان تینوں اجزاء کو متناسب طور پر بڑھایا جانا چاہیے۔
- تین اجزاء: سکیلنگ میں نیٹ ورک کا سائز، تربیت کا وقت اور ڈیٹا شامل ہے۔
- متناسب اضافہ: ان تینوں اجزاء کو متناسب طور پر بڑھایا جانا چاہیے۔
زبان سے آگے سکیلنگ
سکیلنگ کا قانون تصاویر، ویڈیوز اور ریاضی جیسی دیگر طریقوں پر بھی لاگو ہوتا ہے۔ یہ پوسٹ ٹریننگ اور نئے ماڈلز کو دوبارہ ڈیزائن کرنے پر بھی لاگو ہوتا ہے۔
- متعدد طریقے: سکیلنگ کا قانون تصاویر، ویڈیوز اور ریاضی پر بھی لاگو ہوتا ہے۔
- پوسٹ ٹریننگ: یہ پوسٹ ٹریننگ پر بھی لاگو ہوتا ہے۔
سکیلنگ قانون کو سمجھنا
یہ تصور طبیعیات میں "1/f شور" اور "1/x تقسیم" سے متعلق ہے، جہاں قدرتی عمل مختلف پیمانوں پر ہوتے ہیں، اور بڑے ماڈلز زیادہ پیچیدہ نمونوں کو پکڑتے ہیں۔
- طبیعیاتی تصور: سکیلنگ کا قانون طبیعیات کے تصورات سے متعلق ہے۔
- پیچیدہ نمونے: بڑے ماڈلز زیادہ پیچیدہ نمونوں کو پکڑتے ہیں۔
سکیلنگ کی حدود
اگرچہ قطعی حدود معلوم نہیں ہیں، لیکن اموڈی کا خیال ہے کہ سکیلنگ انسانی سطح کی ذہانت تک پہنچ سکتی ہے۔ کچھ شعبوں میں انسانی صلاحیتوں کے قریب حدود ہو سکتی ہیں، جبکہ کچھ میں بہتری کی گنجائش ہے۔
- نامعلوم حدود: سکیلنگ کی قطعی حدود معلوم نہیں ہیں۔
- انسانی ذہانت: اموڈی کا خیال ہے کہ سکیلنگ انسانی سطح کی ذہانت تک پہنچ سکتی ہے۔
ڈیٹا کی حدود
ڈیٹا کی قلت ایک ممکنہ حد ہے، لیکن مصنوعی ڈیٹا اور استدلالی ماڈلز مدد کر سکتے ہیں۔
- ڈیٹا کی کمی: ڈیٹا کی کمی ایک ممکنہ حد ہے۔
- مصنوعی ڈیٹا: مصنوعی ڈیٹا اور استدلالی ماڈلز مدد کر سکتے ہیں۔
کمپیوٹیشنل حدود
موجودہ کمپیوٹیشنل پیمانے اربوں میں ہیں، اگلے سال یہ دسیوں اربوں تک پہنچنے کی امید ہے، اور 2027 تک سینکڑوں اربوں تک پہنچ سکتے ہیں۔
- موجودہ پیمانے: موجودہ کمپیوٹیشنل پیمانے اربوں میں ہیں۔
- مستقبل کی توقعات: 2027 تک یہ پیمانے سینکڑوں اربوں تک پہنچ سکتے ہیں۔
کلاڈ 3 سیریز
انتھروپک نے مختلف سائز اور صلاحیتوں کے ساتھ کلاڈ 3 ماڈلز جاری کیے ہیں: اوپس (سب سے طاقتور)، سونٹ (درمیانی رینج)، اور ہائیکو (تیز اور کم لاگت)۔
- مختلف ماڈلز: کلاڈ 3 سیریز میں مختلف سائز اور صلاحیتوں کے ماڈلز شامل ہیں۔
- اوپس، سونٹ، ہائیکو: یہ تین مختلف ماڈلز ہیں۔
ماڈل کا نام
ان ناموں کو شاعری سے متاثر ہو کر رکھا گیا ہے، ہائیکو سب سے مختصر اور اوپس سب سے بڑا ہے۔
- شاعری سے متاثر: ماڈلز کے نام شاعری سے متاثر ہیں۔
- ہائیکو اور اوپس: ہائیکو سب سے مختصر اور اوپس سب سے بڑا ہے۔
ماڈل کی ارتقاء
ہر نئی ماڈل جنریشن کا مقصد کارکردگی اور لاگت کے درمیان توازن کو بہتر بنانا ہے۔
- بہتری کا مقصد: ہر نئی جنریشن کارکردگی اور لاگت میں توازن پیدا کرنا چاہتی ہے۔
- توازن کی کوشش: ہر نئے ماڈل میں کارکردگی اور لاگت میں توازن پیدا کیا جاتا ہے۔
ماڈل ٹریننگ کا عمل
اس عمل میں پری ٹریننگ (لمبی اور کمپیوٹیشنل طور پر مشکل)، پوسٹ ٹریننگ (آر ایل ایچ ایف اور دیگر آر ایل طریقے)، اور حفاظتی جانچ شامل ہیں۔
- پری ٹریننگ: پری ٹریننگ ایک لمبا اور مشکل عمل ہے۔
- پوسٹ ٹریننگ: پوسٹ ٹریننگ میں آر ایل ایچ ایف اور دیگر آر ایل طریقے شامل ہیں۔
آر ایل ایچ ایف ڈیٹا کا دوبارہ استعمال
پرانے ماڈلز سے حاصل کردہ ترجیحی ڈیٹا نئے ماڈلز کو تربیت دینے کے لیے استعمال کیا جا سکتا ہے۔
- ڈیٹا کا دوبارہ استعمال: پرانے ماڈلز کا ڈیٹا نئے ماڈلز کی تربیت کے لیے استعمال کیا جا سکتا ہے۔
- ترجیحی ڈیٹا: ترجیحی ڈیٹا نئے ماڈلز کے لیے مفید ہے۔
آئینی AI
یہ طریقہ ماڈل کی تربیت کے لیے اصولوں کا ایک سیٹ استعمال کرتا ہے، جس سے ماڈلز خود کو تربیت دے سکتے ہیں۔
- اصولوں کا سیٹ: آئینی AI ماڈلز کی تربیت کے لیے اصولوں کا ایک سیٹ استعمال کرتا ہے۔
- خود سے تربیت: اس طریقے سے ماڈلز خود کو تربیت دے سکتے ہیں۔
ماڈل کی شخصیات
ماڈلز کی منفرد خصوصیات ہوتی ہیں جو ہمیشہ بینچ مارکس سے ظاہر نہیں ہوتیں، جیسے شائستگی اور جوابی صلاحیت۔
- منفرد خصوصیات: ماڈلز کی منفرد خصوصیات ہوتی ہیں۔
- شائستگی اور جوابی صلاحیت: یہ خصوصیات بینچ مارکس سے ظاہر نہیں ہوتیں۔
کوڈنگ اور IDEs
سونٹ 3.5 کی کوڈنگ کی صلاحیتوں میں نمایاں بہتری آئی ہے، جس سے انجینئرز کا وقت بچتا ہے جو پہلے گھنٹوں لگتے تھے۔
- کوڈنگ کی صلاحیت: سونٹ 3.5 کی کوڈنگ کی صلاحیت میں بہتری آئی ہے۔
- وقت کی بچت: اس سے انجینئرز کا وقت بچتا ہے۔
SWE-bench کی کارکردگی
SWE-bench بینچ مارک پر ماڈل کی کامیابی کی شرح 10 مہینوں میں 3% سے بڑھ کر 50% ہو گئی ہے۔
- کامیابی کی شرح: SWE-bench پر ماڈل کی کامیابی کی شرح میں اضافہ ہوا ہے۔
- 10 مہینوں میں بہتری: 10 مہینوں میں یہ شرح 3% سے 50% تک پہنچ گئی۔
پروگرامنگ پر AI کا اثر
AI کی ترقی کے ساتھ پروگرامنگ میں تیزی سے تبدیلی کی توقع ہے۔
- تیز تبدیلی: AI کی ترقی سے پروگرامنگ میں تیزی سے تبدیلی کی توقع ہے۔
- AI کا کردار: AI پروگرامنگ میں اہم کردار ادا کر رہا ہے۔
پروگرامنگ میں AI کا کردار
AI کوڈ لکھ سکتا ہے، چلا سکتا ہے اور اس کا تجزیہ کر سکتا ہے، جس سے تیزی سے ترقی کے لیے ایک بند لوپ سسٹم بنتا ہے۔
- بند لوپ سسٹم: AI کوڈ لکھ سکتا ہے، چلا سکتا ہے اور تجزیہ کر سکتا ہے۔
- تیز ترقی: اس سے تیزی سے ترقی ممکن ہے۔
پروگرامنگ کا مستقبل
2026 یا 2027 تک AI سے زیادہ تر روایتی کوڈنگ کے کام سنبھالنے کی توقع ہے، جس سے انسان اعلیٰ سطحی سسٹم ڈیزائن اور آرکیٹیکچر پر توجہ مرکوز کر سکیں گے۔
- روایتی کام: AI 2026 یا 2027 تک زیادہ تر روایتی کوڈنگ کے کام سنبھالے گا۔
- انسانی کردار: انسان اعلیٰ سطحی ڈیزائن پر توجہ مرکوز کر سکیں گے۔
مستقبل کے IDEs
IDEs میں بہتری کی بہت گنجائش ہے، لیکن انتھروپک اپنا IDE تیار کرنے کا ارادہ نہیں رکھتا۔ وہ دوسروں کے لیے ٹولز بنانے کے لیے APIs فراہم کرنے کو ترجیح دیتے ہیں۔
- بہتری کی گنجائش: IDEs میں بہتری کی بہت گنجائش ہے۔
- API کی فراہمی: انتھروپک IDE تیار کرنے کی بجائے APIs فراہم کرتا ہے۔
کمپیوٹر کا استعمال اور حفاظت
یہ خصوصیت ماڈلز کو اسکرین شاٹس کا تجزیہ کرنے اور کلک یا کیز دبا کر کام کرنے کی اجازت دیتی ہے۔
- اسکرین شاٹس کا تجزیہ: ماڈلز اسکرین شاٹس کا تجزیہ کر سکتے ہیں۔
- عمل کرنے کی صلاحیت: ماڈلز کلک اور کیز دبا کر کام کر سکتے ہیں۔
عمومیت
اسکرین شاٹس استعمال کرنے کی صلاحیت عمومیت کی ایک اچھی مثال ہے، جہاں ایک طاقتور پہلے سے تربیت یافتہ ماڈل آسانی سے نئے کاموں کے مطابق ہو سکتا ہے۔
- عمومیت کی مثال: اسکرین شاٹس کا استعمال عمومیت کی اچھی مثال ہے۔
- نئے کام: پہلے سے تربیت یافتہ ماڈل نئے کاموں کے مطابق ہو سکتے ہیں۔
API کا اجراء
حفاظتی خدشات کی وجہ سے کمپیوٹر کا استعمال ابتدائی طور پر API کے طور پر جاری کیا گیا ہے۔
- حفاظتی خدشات: حفاظتی خدشات کی وجہ سے یہ API کے طور پر جاری کیا گیا ہے۔
- ابتدائی اجراء: یہ خصوصیت ابتدائی طور پر API کے طور پر جاری کی گئی ہے۔
حفاظتی اقدامات
ان طاقتور ماڈلز کو محفوظ طریقے سے استعمال کرنا اور ان کے غلط استعمال کو روکنا ضروری ہے۔
- محفوظ استعمال: ان ماڈلز کو محفوظ طریقے سے استعمال کرنا ضروری ہے۔
- غلط استعمال سے بچاؤ: ان ماڈلز کے غلط استعمال کو روکنا ضروری ہے۔
ذمہ دار سکیلنگ پالیسی
یہ پالیسی ماڈلز کو ممکنہ خطرات کے لیے جانچنے کے لیے استعمال کی جاتی ہے۔
- خطرات کی جانچ: یہ پالیسی ماڈلز کو ممکنہ خطرات کے لیے جانچتی ہے۔
- ذمہ دار سکیلنگ: یہ پالیسی ذمہ دار سکیلنگ کو یقینی بناتی ہے۔
AI حفاظتی سطحیں
ماڈلز کو ان کی صلاحیتوں اور ممکنہ خطرات کی بنیاد پر مختلف ASL سطحوں میں درجہ بندی کیا گیا ہے۔
- درجہ بندی: ماڈلز کو مختلف ASL سطحوں میں درجہ بندی کیا گیا ہے۔
- خطرات کی بنیاد: یہ درجہ بندی ان کی صلاحیتوں اور خطرات کی بنیاد پر کی گئی ہے۔
سینڈ باکسنگ
ٹریننگ کے دوران ماڈلز کو حقیقی دنیا کے ساتھ تعامل کرنے سے روکنے کے لیے سینڈ باکسنگ کا استعمال کیا جاتا ہے۔
- حقیقی دنیا سے تعامل سے بچاؤ: سینڈ باکسنگ ماڈلز کو حقیقی دنیا سے تعامل کرنے سے روکتی ہے۔
- ٹریننگ کے دوران: یہ ٹریننگ کے دوران استعمال کیا جاتا ہے۔
میکانزم کی تشریح پذیری
یہ ماڈلز کو سمجھنے اور ان پر قابو پانے کے لیے بہت ضروری ہے، خاص طور پر اعلیٰ ASL سطحوں پر۔
- سمجھنے اور کنٹرول کرنے کے لیے: میکانزم کی تشریح پذیری ماڈلز کو سمجھنے اور ان پر قابو پانے کے لیے ضروری ہے۔
- اعلیٰ ASL سطحوں پر: یہ خاص طور پر اعلیٰ ASL سطحوں پر اہم ہے۔
آر ایل ایچ ایف اور ماڈل کا رویہ
آر ایل ایچ ایف ماڈلز کو بنیادی طور پر ذہین بنانے کے بجائے انسانوں کے ساتھ بہتر بات چیت کرنے میں مدد کرتا ہے۔
- بہتر بات چیت: آر ایل ایچ ایف ماڈلز کو انسانوں کے ساتھ بہتر بات چیت کرنے میں مدد کرتا ہے۔
- ذہانت میں اضافہ نہیں: یہ ماڈلز کو بنیادی طور پر زیادہ ذہین نہیں بناتا۔
غیر محدود کرنا
آر ایل ایچ ایف ماڈلز کو "غیر محدود" کر سکتا ہے، کچھ حدود کو ہٹا سکتا ہے لیکن تمام کو نہیں۔
- حدود کو ہٹانا: آر ایل ایچ ایف ماڈلز کی کچھ حدود کو ہٹا سکتا ہے۔
- تمام حدود نہیں: یہ تمام حدود کو نہیں ہٹا سکتا۔
پوسٹ ٹریننگ کے اخراجات
مستقبل میں پوسٹ ٹریننگ کے اخراجات پری ٹریننگ کے اخراجات سے زیادہ ہونے کی توقع ہے۔
- زیادہ اخراجات: پوسٹ ٹریننگ کے اخراجات پری ٹریننگ سے زیادہ ہونے کی توقع ہے۔
- مستقبل کی توقعات: یہ مستقبل کی توقع ہے۔
قابل توسیع نگرانی
ماڈل کوالٹی کو بہتر بنانے کے لیے صرف انسانی طریقے قابل توسیع نہیں ہیں، اس لیے زیادہ قابل توسیع نگرانی کے طریقوں کی ضرورت ہے۔
- قابل توسیع طریقے: ماڈل کوالٹی کو بہتر بنانے کے لیے قابل توسیع طریقوں کی ضرورت ہے۔
- انسانی طریقوں کی حدود: انسانی طریقے قابل توسیع نہیں ہیں۔
ماڈل کی "بیوقوفی"
ماڈلز کے "بیوقوف" ہونے کے بارے میں صارفین کے تاثرات ماڈلز کی پیچیدگی اور ان کی ترغیبات کے لیے حساسیت کی وجہ سے ہو سکتے ہیں۔
- پیچیدگی کا اثر: ماڈلز کی پیچیدگی صارفین کے تاثرات پر اثر انداز ہو سکتی ہے۔
- ترغیبات کے لیے حساسیت: ماڈلز ترغیبات کے لیے حساس ہو سکتے ہیں۔
ماڈل کی شخصیات
ماڈل کے رویے کو کنٹرول کرنا مشکل ہے، اور مختلف خصوصیات کے درمیان سمجھوتہ کرنا پڑتا ہے۔
- کنٹرول کرنا مشکل: ماڈل کے رویے کو کنٹرول کرنا مشکل ہے۔
- سمجھوتہ کرنا: مختلف خصوصیات کے درمیان سمجھوتہ کرنا پڑتا ہے۔
صارفین کا تاثرات
ماڈل کے رویے کو سمجھنے کے لیے صارفین کا تاثرات بہت ضروری ہے، لیکن اسے جمع کرنا اور اس کی تشریح کرنا مشکل ہے۔
- ضروری تاثرات: صارفین کا تاثرات ماڈل کے رویے کو سمجھنے کے لیے ضروری ہے۔
- مشکل جمع کرنا: تاثرات جمع کرنا اور اس کی تشریح کرنا مشکل ہے۔
مقابلہ اور مستقبل کی سمتیں
انتھروپک کا مقصد دیگر کمپنیوں کے لیے ایک مثال قائم کرنا ہے، جو ذمہ دار AI کی ترقی کو فروغ دے۔
- مثال قائم کرنا: انتھروپک کا مقصد دیگر کمپنیوں کے لیے ایک مثال قائم کرنا ہے۔
- ذمہ دار AI: یہ ذمہ دار AI کی ترقی کو فروغ دیتا ہے۔
میکانزم کی تشریح پذیری
یہ انتھروپک کے لیے تحقیق کا ایک کلیدی شعبہ ہے، جس کا مقصد یہ سمجھنا ہے کہ ماڈلز اندرونی طور پر کیسے کام کرتے ہیں۔
- تحقیق کا کلیدی شعبہ: میکانزم کی تشریح پذیری انتھروپک کے لیے تحقیق کا ایک اہم شعبہ ہے۔
- اندرونی کام: اس کا مقصد یہ سمجھنا ہے کہ ماڈلز اندرونی طور پر کیسے کام کرتے ہیں۔
ماڈل ڈیزائن
ماڈلز کو کام کرنے اور ٹاسک مکمل کرنے کے لیے ڈیزائن کیا گیا ہے، نہ کہ انسانوں کے لیے آسانی سے سمجھنے کے لیے۔
- فنکشنل ڈیزائن: ماڈلز کو کام کرنے کے لیے ڈیزائن کیا گیا ہے۔
- انسانی فہم سے بالاتر: ماڈلز کو آسانی سے سمجھنا ممکن نہیں ہے۔
AI ٹیلنٹ
ایک بڑی ٹیم کے بجائے، اعلیٰ ٹیلنٹ کی کثافت کامیابی کے لیے بہت ضروری ہے۔
- ٹیلنٹ کی کثافت: اعلیٰ ٹیلنٹ کی کثافت کامیابی کے لیے ضروری ہے۔
- بڑی ٹیم ضروری نہیں: بڑی ٹیم ضروری نہیں ہے۔
کھلا ذہن
AI محققین اور انجینئرز کے لیے کھلا ذہن اور تجربہ کرنے کی رضامندی اہم خصوصیات ہیں۔
- کھلا ذہن: AI محققین کے لیے کھلا ذہن ضروری ہے۔
- تجربہ کرنے کی رضامندی: تجربہ کرنے کی رضامندی بھی ضروری ہے۔
عملی تجربہ
ماڈلز کو سمجھنے کے لیے ان کے ساتھ براہ راست تعامل بہت ضروری ہے۔
- براہ راست تعامل: ماڈلز کو سمجھنے کے لیے ان کے ساتھ براہ راست تعامل ضروری ہے۔
- تجربہ کی اہمیت: براہ راست تجربہ بہت ضروری ہے۔
آئینی AI
یہ طریقہ ماڈلز کو اصولوں کے ایک سیٹ کی بنیاد پر خود کو تربیت دینے کی اجازت دیتا ہے۔
- خود سے تربیت: یہ طریقہ ماڈلز کو خود سے تربیت دینے کی اجازت دیتا ہے۔
- اصولوں کا سیٹ: یہ اصولوں کے ایک سیٹ پر مبنی ہے۔
ماڈل سپیک
یہ تصور، آئینی AI کی طرح، ماڈل کے اہداف اور رویوں کی وضاحت کرتا ہے۔
- اہداف اور رویے: یہ ماڈل کے اہداف اور رویوں کی وضاحت کرتا ہے۔
- آئینی AI سے ملتا جلتا: یہ آئینی AI سے ملتا جلتا ہے۔
تباہ کن غلط استعمال
یہ ایک بڑا خدشہ ہے، جس میں سائبر سیکیورٹی اور حیاتیاتی ہتھیاروں جیسے شعبوں میں ماڈلز کا غلط استعمال شامل ہے۔
- بڑا خدشہ: یہ ماڈلز کے غلط استعمال کے بارے میں ایک بڑا خدشہ ہے۔
- غلط استعمال کے شعبے: سائبر سیکیورٹی اور حیاتیاتی ہتھیاروں میں غلط استعمال کا امکان ہے۔
خود مختاری کے خطرات
جیسے جیسے ماڈلز زیادہ خود مختاری حاصل کرتے ہیں، یہ یقینی بنانا ضروری ہے کہ وہ انسانی ارادوں کے مطابق ہوں۔
- انسانی ارادوں کے مطابق: یہ یقینی بنانا ضروری ہے کہ ماڈلز انسانی ارادوں کے مطابق ہوں۔
- خود مختاری کے خطرات: ماڈلز کی خود مختاری کے خطرات کو کم کرنا ضروری ہے۔
ASL سطحیں
یہ سطحیں ماڈلز کو ان کی صلاحیتوں اور ممکنہ خطرات کی بنیاد پر درجہ بندی کرتی ہیں۔
- درجہ بندی: ماڈلز کو ان کی صلاحیتوں اور خطرات کی بنیاد پر درجہ بندی کیا گیا ہے۔
- مختلف سطحیں: یہ مختلف ASL سطحوں میں درجہ بندی کی گئی ہے۔
AGI ٹائم لائن
AGI کے حصول کے لیے ٹائم لائن غیر یقینی ہے، لیکن یہ اگلے چند سالوں میں ممکن ہے۔
- غیر یقینی ٹائم لائن: AGI کے حصول کے لیے ٹائم لائن غیر یقینی ہے۔
- ممکنہ وقت: یہ اگلے چند سالوں میں ممکن ہے۔
حیاتیات اور ادویات میں AGI
AGI میں تحقیق اور ترقی کو تیز کر کے ان شعبوں میں انقلاب لانے کی صلاحیت ہے۔
- انقلابی صلاحیت: AGI میں حیاتیات اور ادویات میں انقلاب لانے کی صلاحیت ہے۔
- تحقیق اور ترقی: یہ تحقیق اور ترقی کو تیز کر سکتا ہے۔
AI بطور تحقیقی معاون
ابتدائی مراحل میں، AI ایک تحقیقی معاون کے طور پر کام کرے گا، سائنسدانوں کو تجربات اور ڈیٹا کے تجزیہ میں مدد کرے گا۔
- تحقیقی معاون: ابتدائی مراحل میں AI ایک تحقیقی معاون کے طور پر کام کرے گا۔
- سائنسدانوں کی مدد: یہ سائنسدانوں کو تجربات اور ڈیٹا کے تجزیہ میں مدد کرے گا۔
پیداواریت پر AI کا اثر
اگرچہ AI میں پیداواریت میں نمایاں اضافہ کرنے کی صلاحیت ہے، لیکن تنظیمی ڈھانچے اور نئی ٹیکنالوجیز کو اپنانے میں سست روی سے متعلق چیلنجز بھی ہیں۔
- پیداواریت میں اضافہ: AI میں پیداواریت میں نمایاں اضافہ کرنے کی صلاحیت ہے۔
- تنظیمی چیلنجز: تنظیمی ڈھانچے اور ٹیکنالوجی کو اپنانے میں سست روی چیلنجز ہیں۔