fbpx

လူသိရှင်ကြားမထုတ်ပြန်မီ Microsoft၊ Google၊ xAI တို့မှ AI မော်ဒယ်များကို ပြန်လည်သုံးသပ်ရန် US



Microsoft၊ Google နှင့် xAI တို့သည် အမေရိကန် အစိုးရအား လာမည့် ဉာဏ်ရည်တု မော်ဒယ်များကို စောစောစီးစီး ဝင်ရောက်ခွင့် ပေးရန် သဘောတူထားပြီး၊ တာဝန်ရှိသူများက အဆိုပါ စနစ်များကို အများပြည်သူသို့ မထုတ်ပြန်မီ ဖြစ်ပေါ်လာနိုင်သည့် အမျိုးသား လုံခြုံရေး အန္တရာယ်များကို ဆန်းစစ်နိုင်စေရန် သဘောတူညီခဲ့ကြသည်။

အကျဉ်းချုပ်

  • Microsoft၊ Google နှင့် xAI တို့သည် လူသိရှင်ကြားမထုတ်ပြန်မီ အမျိုးသားလုံခြုံရေးစမ်းသပ်မှုအတွက် AI မော်ဒယ်အသစ်များကို အမေရိကန်အာဏာပိုင်များထံ စောစီးစွာဝင်ရောက်ခွင့်ပေးမည်ဖြစ်သည်။
  • ကုန်သွယ်ရေးဌာန၏ CAISI သည် ဆိုက်ဘာတိုက်ခိုက်မှုများတွင် ဖြစ်နိုင်ချေရှိသော အလွဲသုံးစားမှုအပါအဝင် မော်ဒယ်စွမ်းရည်များနှင့် အန္တရာယ်များကို အကဲဖြတ်မည်ဖြစ်ပြီး ဘေးကင်းလုံခြုံရေးအကာအရံများပါရှိသည့် ဗားရှင်းများကို အသုံးပြုကာ ဆိုက်ဘာတိုက်ခိုက်မှုများတွင် အလွဲသုံးစားလုပ်မည်ဖြစ်သည်။
  • အဆိုပါ လုပ်ဆောင်ချက်သည် အမျိုးအစားခွဲခြားထားသော စစ်ဘက်ကွန်ရက်များတစ်လျှောက် အဆင့်မြင့်စနစ်များကို ဖြန့်ကျက်ရန် သဘောတူညီချက်အသစ်များ အပါအဝင် AI မိတ်ဖက်များ တိုးချဲ့ရန် ပင်တဂွန်၏ ပိုမိုကျယ်ပြန့်သော ကြိုးပမ်းမှုများကို လိုက်နာခြင်းဖြစ်သည်။

အဆိုပါအစီအစဉ်သည် United States Department of Commerce လက်အောက်ရှိ AI စံနှုန်းများနှင့် ဆန်းသစ်တီထွင်မှုစင်တာ (CAISI) ကို အဆိုပါမော်ဒယ်များကို ကြိုတင်စမ်းသပ်နိုင်စေမည်ဖြစ်သည်။

အရ၊ အေဂျင်စီထံသို့၊ လုပ်ငန်းစဉ်တွင် နည်းပညာဆိုင်ရာ အကဲဖြတ်မှုများနှင့် စနစ်များလုပ်ဆောင်ပုံနှင့် ၎င်းတို့ဖြစ်ပေါ်လာနိုင်သည့် အန္တရာယ်များကို သုတေသနပြုခြင်းများ ပါဝင်သည်။

Anthropic Mythos ကဲ့သို့သော စနစ်များအပါအဝင် AI တွင် မကြာသေးမီက တိုးတက်မှုများက ဝါရှင်တန်နှင့် ကော်ပိုရိတ်ကဏ္ဍများတွင် စိုးရိမ်မှုများ ပြင်းထန်လာသည်။ အထူးသဖြင့် အလိုအလျောက်စနစ်ဖြင့် အန္တရာယ်ရှိသော လုပ်ဆောင်မှု၏ အတိုင်းအတာနှင့် အမြန်နှုန်းကို မြှင့်တင်ပေးနိုင်သည့် ဆိုက်ဘာတိုက်ခိုက်မှုများတွင် ပိုမိုလုပ်ဆောင်နိုင်စွမ်းရှိသော မော်ဒယ်များကို အလွဲသုံးစားပြုနိုင်ကြောင်း တာဝန်ရှိသူများနှင့် အမှုဆောင်အရာရှိများက သတိပေးထားသည်။

နောက်ဆုံးထုတ်ပြန်ချက်တွင် မနုဿကိုရည်ညွှန်းထားခြင်းမရှိပါ။ ကုမ္ပဏီသည် ၎င်း၏ကိရိယာများကို စစ်ဘက်ဆိုင်ရာပတ်ဝန်းကျင်များတွင် အသုံးပြုသည့်အခါ အကာအကွယ်များအသုံးပြုသည့်အတိုင်းအတာနှင့်ပတ်သက်၍ အမေရိကန်ကာကွယ်ရေးဌာနနှင့် ဆန့်ကျင်ဘက်ဖြစ်ပြီး၊ ယင်းစနစ်များကို မည်သို့တပ်ဖြန့်သင့်သည်နှင့်ပတ်သက်၍ တင်းမာမှုများကို မီးမောင်းထိုးပြနေသည်။

“ လွတ်လပ်သော၊ တိကျသောတိုင်းတာမှုသိပ္ပံသည် နယ်ခြား AI နှင့် ၎င်း၏အမျိုးသားလုံခြုံရေးဆိုင်ရာ သက်ရောက်မှုများကို နားလည်ရန် မရှိမဖြစ်လိုအပ်ပါသည်” ဟု CAISI ဒါရိုက်တာ Chris Fall က မော်ဒယ်စွမ်းရည်များ တိုးတက်လာသည်နှင့်အမျှ ဖွဲ့စည်းပုံအကဲဖြတ်မှုမူဘောင်များ လိုအပ်ကြောင်း အလေးပေးပြောကြားခဲ့ပါသည်။

CAISI သည် အဆင့်မြင့် AI စနစ်များကို စမ်းသပ်ရန်အတွက် ဗဟိုအစိုးရ၏ ဗဟိုအချက်အချာအဖြစ် ဆောင်ရွက်သည်။ စမ်းသပ်ချိန်တွင် လူသိရှင်ကြားမပြသရသေးသည့် မော်ဒယ်များအပါအဝင် အကဲဖြတ်မှု ၄၀ ကျော်ကို လုပ်ဆောင်ခဲ့ပြီးဖြစ်ကြောင်း ၎င်းက ပြောကြားခဲ့သည်။

ဤအကဲဖြတ်ချက်များကို ပံ့ပိုးရန်၊ developer များသည် အချို့သော လုံခြုံရေးအကာအရံများကို ဖြေလျှော့ပေးခြင်းဖြင့် ၎င်းတို့၏ မော်ဒယ်များ၏ မွမ်းမံထားသော ဗားရှင်းများကို မကြာခဏ တင်ပြကြသည်။ ၎င်းသည် အေဂျင်စီအား အဆိုးဆုံးအခြေအနေများကို ဆန်းစစ်ရန်နှင့် စံအသုံးပြုမှုအခြေအနေများအောက်တွင် မပေါ်နိုင်သည့် အားနည်းချက်များကို ဖော်ထုတ်နိုင်စေပါသည်။

ပင်တဂွန်စစ်ဌာနချုပ်၏ လှုပ်ရှားမှုအပြီး မကြာမီ ထွက်ပေါ်လာသည်။ ၎င်း၏ ကိုယ်ပိုင် AI မိတ်ဖက်များကို တိုးချဲ့ခဲ့သည်။. အမျိုးအစားခွဲထားသော ကွန်ရက်များတစ်လျှောက် အဆင့်မြင့် AI စွမ်းရည်များ ဖြန့်ကျက်ရန် ကုမ္ပဏီခုနစ်ခုနှင့် သဘောတူညီချက်များ လက်မှတ်ရေးထိုးခဲ့ကြောင်း အမေရိကန် ကာကွယ်ရေးဌာနက ပြီးခဲ့သည့် ရက်သတ္တပတ်က ပြောကြားခဲ့သည်။



Source

Comments are closed, but trackbacks and pingbacks are open.