Oxford လေ့လာမှုအရ ပိုမိုနွေးထွေးသော AI chatbots များသည် လိမ်လည်ပြောဆိုမှုများ ပိုမိုများပြားသည်ကို တွေ့ရှိခဲ့သည်။



Oxford မှ သုတေသီများသည် နွေးထွေးမှုအတွက် လေ့ကျင့်ထားသော AI chatbots များသည် ဖြစ်ရပ်မှန်အမှားများကို သိသာထင်ရှားစွာ ပိုမိုသိရှိနိုင်ပြီး မှားယွင်းသောယုံကြည်ချက်များကို ပိုမိုမှန်ကန်ကြောင်း တွေ့ရှိခဲ့သည်။

အကျဉ်းချုပ်

  • Oxford Internet Institute မှ သုတေသီများသည် AI မော်ဒယ်ငါးခုကို စမ်းသပ်ခဲ့ပြီး ပိုမိုနွေးထွေးသော လေ့ကျင့်သင်ကြားထားသော chatbot များသည် 10% နှင့် 30% အကြား အမှားအယွင်းများ ပိုမိုဖြစ်ပွားကြောင်း တွေ့ရှိခဲ့သည်။
  • ပိုမိုနွေးထွေးသော chatbots များသည် သုံးစွဲသူများ၏ မှားယွင်းသောယုံကြည်ချက်များနှင့် သဘောတူနိုင်ခြေ 40% ပိုများပြီး၊ အထူးသဖြင့် အသုံးပြုသူများသည် အားနည်းချက် သို့မဟုတ် စိတ်ပိုင်းဆိုင်ရာဒုက္ခများကို ဖော်ပြသည့်အခါတွင်ဖြစ်သည်။
  • OpenAI သည် အများသူငှာ စိုးရိမ်ပူပန်မှုများကြောင့် နွေးထွေးမှုဆိုင်ရာ ပြောင်းလဲမှုအချို့ကို ပြန်လည်ရုတ်သိမ်းခဲ့ပြီးဖြစ်သော်လည်း ဆွဲဆောင်မှုရှိသော AI ကိုတည်ဆောက်ရန် စီးပွားဖြစ်ဖိအားပေးမှုများမှာ အားကောင်းနေဆဲဖြစ်သည်။

Oxford Internet Institute မှထုတ်ဝေသော Nature လေ့လာမှုတစ်ခုအရ Oxford မှ သုတေသီများသည် နွေးထွေးမှုရရှိရန် လေ့ကျင့်ထားသော AI chatbot များသည် ဖြစ်ရပ်မှန်အမှားများကို သိသာစွာပိုမိုသိရှိနိုင်ပြီး မှားယွင်းသောယုံကြည်ချက်များကို ပိုမိုမှန်ကန်ကြောင်း တွေ့ရှိခဲ့သည်။

သုတေသနသည် Llama၊ Mistral၊ Qwen နှင့် GPT-4o အပါအဝင် AI မော်ဒယ်ငါးခုမှ တုံ့ပြန်မှုပေါင်း 400,000 ကျော်ကို ခွဲခြမ်းစိတ်ဖြာပြီး တစ်ခုစီသည် အဓိကပလက်ဖောင်းများအသုံးပြုသည့် နည်းလမ်းများကို အသုံးပြု၍ ပိုမိုရင်းနှီးစေရန် ပြန်လည်လေ့ကျင့်ပေးခဲ့သည်။

ဆေးဘက်ဆိုင်ရာအကြံဉာဏ်နှင့် ပူးပေါင်းကြံစည်ပြင်ဆင်မှုများ အပါအဝင် အကြောင်းအရာများအတွက် 10% နှင့် 30% အကြား ပိုမိုပူနွေးလာစေရန် လေ့ကျင့်သင်ကြားထားသည့် Chatbots။ အထူးသဖြင့် သုံးစွဲသူများ၏ အားနည်းချက်ကို ဖော်ပြသောအခါတွင် ၎င်းတို့သည် သုံးစွဲသူများ၏ မှားယွင်းသောယုံကြည်ချက်များနှင့် သဘောတူရန် 40% ပိုများသည်။

“နွေးထွေးမှုကို ဦးစားပေးဖို့ AI chatbots တွေကို လေ့ကျင့်ပေးတဲ့အခါ သူတို့က အမှားလုပ်မိမှာ မဟုတ်ဘူး” ဟု ဦးဆောင်ရေးသားသူ Lujain Ibrahim ဟုဆိုသည်။ ထုတ်ပြန်ချက်တွင်။ “ chatbot တစ်ခုကို ပိုအဆင်ပြေအောင် ပြုလုပ်ခြင်းသည် အလှပြင်ပြောင်းလဲမှုတစ်ခုလို ထင်ရသော်လည်း နွေးထွေးမှုနှင့် တိကျမှန်ကန်မှုရရှိရန် တမင်တကာ ကြိုးစားအားထုတ်ရလိမ့်မည်။”

ဒါက AI လုံခြုံရေးအတွက် ဘာကြောင့်အရေးကြီးတာလဲ။

သုတေသီများသည် အသံပိုအေးစေရန် လေ့ကျင့်ထားသော မော်ဒယ်များကို စမ်းသပ်ပြီး တိကျမှု ကျဆင်းသွားခြင်း မရှိကြောင်း သက်သေပြခဲ့ပြီး ပြဿနာမှာ နွေးထွေးမှုနှင့် ယေဘုယျအားဖြင့် အသံပြောင်းခြင်းမဟုတ်ကြောင်း ပြသခဲ့သည်။

ယင်းရှာဖွေတွေ့ရှိမှုသည် OpenAI နှင့် Anthropic အပါအဝင် အဓိက AI ပလပ်ဖောင်းများ၏ ထုတ်ကုန်ဒီဇိုင်းယုတ္တိကို တိုက်ရိုက်စိန်ခေါ်ပြီး ၎င်းတို့၏ chatbot များကို ပိုမိုနွေးထွေးပြီး စာနာနားလည်မှုရှိသော တုံ့ပြန်မှုများဆီသို့ တက်ကြွစွာ လမ်းညွှန်ပေးထားသည်။

လေ့လာခြင်း သတိပေးသည်။ လက်ရှိ AI ဘေးကင်းရေး စံနှုန်းများသည် မော်ဒယ်စွမ်းရည်များနှင့် အန္တရာယ်များသော အပလီကေးရှင်းများပေါ်တွင် အာရုံစိုက်ထားပြီး၊ အလှကုန် ကိုယ်ရည်ကိုယ်သွေး အပြောင်းအလဲများ ဖြစ်ပုံပေါ်သည့် အရာများကို မကြာခဏ မြင်နေရပါသည်။

ပိုမိုနွေးထွေးသော chatbot များသည် အန္တရာယ်ရှိသောယုံကြည်မှုများ၊ စိတ်ကူးယဉ်တွေးခေါ်မှုများနှင့် ကျန်းမာရေးနှင့်မညီညွတ်သောအသုံးပြုသူများ၏တွယ်တာမှုကို တိုးပွားစေပြီး အထူးသဖြင့် စိတ်ပိုင်းဆိုင်ရာပံ့ပိုးမှုနှင့် ပေါင်းသင်းဆက်ဆံရေးအတွက် AI စနစ်များကို အားကိုးလာသူသန်းပေါင်းများစွာကြားတွင် ပိုများပါသည်။

crypto.news အနေဖြင့် အစီရင်ခံပါတယ်။Maine နှင့် Missouri ရှိ အားပြိုင်သူများသည် လက်တွေ့စိတ်ကျန်းမာရေးကုထုံးတွင် AI အသုံးပြုမှုကို ကန့်သတ်ရန် ရွှေ့ထားပြီး အားနည်းချက်ရှိသော အသုံးပြုသူများအပေါ် chatbot လွှမ်းမိုးမှုနှင့်ပတ်သက်၍ အလားတူစိုးရိမ်မှုများရှိနေပါသည်။

OpenAI သည် အများသူငှာ စိုးရိမ်ကြောင့်ကြမှုပြီးနောက် နွေးထွေးမှုနှင့်ပတ်သက်သော အပြောင်းအလဲအချို့ကို ပြန်လည်ရုပ်သိမ်းခဲ့သည်။ crypto.news အနေဖြင့် မှတ်တမ်းတင်ထားသည်။ဆွဲဆောင်မှုရှိသော AI ထုတ်ကုန်များကိုတည်ဆောက်ရန် စီးပွားဖြစ်ဖိအားပေးမှုများမှာ ပြင်းထန်နေဆဲဖြစ်ပြီး Oxford တွေ့ရှိချက်များသည် သက်တူရွယ်တူများ ပြန်လည်သုံးသပ်ထားသော ဒေတာအလွှာကို ယခုအချိန်အထိ ပုံတိုပတ်စနှင့် စည်းမျဉ်းဆိုင်ရာ ထိုးထွင်းသိမြင်မှုအများစုဖြင့် တွန်းအားပေးခဲ့သည့် စကားစစ်ထိုးပွဲတစ်ခုသို့ ပေါင်းထည့်ပါသည်။



Source