فناوری نوآورانه ای به نام مدل سازی زبان تطبیقی مطمئن (CALM) می تواند سرعت مدل زبانی بزرگ را تا سه برابر بهبود بخشد.
گوگل فناوری جدیدی به نام CALM را معرفی کرد که مدلهای زبان بزرگ (مانند GPT-3 و LaMDA) را بدون به خطر انداختن سطح عملکرد سرعت میبخشد.داده های آموزشی بزرگتر بهتر است اما هزینه دارد ،مدلهای زبان بزرگ (LLM) بر روی مقادیر زیادی داده آموزش میدهند. آموزش مدلهای زبان بر روی مقادیر بیشتر داده، منجر به یادگیری تواناییهای جدیدی در مدل میشود که همیشه برای آنها برنامهریزی نشده است.
به عنوان مثال، افزودن دادههای آموزشی بیشتر به یک مدل زبان میتواند به طور غیرمنتظرهای منجر به کسب توانایی ترجمه بین زبانهای مختلف شود، حتی اگر برای انجام این کار آموزش ندیده باشد.
این تواناییهای جدید، تواناییهای نوظهور نامیده میشوند، تواناییهایی که لزوماً برای آنها برنامهریزی نشدهاند.
یک مقاله تحقیقاتی متفاوت (PDF) در مورد توانایی های اضطراری بیان می کند:
اگرچه دهها نمونه از تواناییهای نوظهور وجود دارد، اما در حال حاضر توضیحات قانعکنندهای برای اینکه چرا چنین تواناییهایی به شیوهای که پیدا میشوند، وجود دارد.
آنها نمی توانند توضیح دهند که چرا توانایی های مختلف آموخته می شوند.
اما به خوبی شناخته شده است که افزایش حجم داده برای آموزش ماشین به آن امکان می دهد توانایی های بیشتری به دست آورد.
نقطه ضعف افزایش مقیاس دادههای آموزشی این است که برای تولید یک خروجی به توان محاسباتی بیشتری نیاز است، که باعث میشود هوش مصنوعی در زمانی که خروجی متن تولید میکند کندتر شود (لحظهای که «زمان استنتاج» نامیده میشود).