ދިވެހި ބަސް ވެސް ގޫގުލް ޓްރާންސްލޭޝަނަށް ގެނެސްފި އެވެ.
ގޫގުލް އިން އިއްޔެ ފެށި މި އަހަރުގެ ޑިވެލޮޕާ ކޮންފަރެންސްގައި ވަނީ އިއްޔެ އަލަށް މުޅިން 24 ބަހެއް ގޫގުލް ޓްރާންސްލޭޝަނަށް ގެނެސްފައިވާކަން އިއުލާންކޮށްފަ އެވެ. އޭގެ ތެރެއިން އެއް ބަހަކީ މި ކުޑަކުޑަ ރާއްޖޭގެ މީހުން ވާހަކަ ދައްކާ ދިވެހި ބަހެވެ. އަލަށް ގޫގުލް ޓްރާންސްލޭޝަނަށް ދިވެހި ބަހާ އެކު އިތުރުކުރި 24 ބަހާ އެކު މިހާރު، އޭގައި ޓްރާންސްލޭޓްކުރެވޭ ބަހުގެ އަދަދު ވަނީ 133 އަށް އަރައިފަ އެވެ.
Today we present an approach that uses monolingual data to train #MachineTranslation models for zero-resource translation, which has enabled the expansion of #GoogleTranslate to include 24 under-resourced languages. https://t.co/T0lwbvhTd6
— Google AI (@GoogleAI) May 11, 2022
ގޫގުލް އިން ބުނީ މިކަމަށް ކުރެވޭ މަސައްކަތްތައް އަދިވެސް ކުރިއަށް އޮތީ ސަބަބަކީ އެވެ. ސަބަބަކީ ދުނިޔޭގައި މީހުން ވާހަލަ ދައްކާ ބަހުގެ އަދަދު 7،000 އަށް އަރާތީ އެވެ.
ގޫގުލް ޓްރާންސްލޭޓަރ އިން އަލަށް ދަސްކުރި 24 ބަހުގެ ތެރޭގައި ދިވެހި ބަސް ވެސް ހިމެނިއްޖެ. މިއީ ދިވެހި ބަހަށް ލިބިގެން ދިޔަ ވަރަށް ބޮޑު ކުރިއެރުމެއް. މިކަމަށްޓަކައި މަސައްކަތްކޮށް މަގުފަހިކޮށްދިން ހުރިހާ އެންމެންނަށް ވަރަށް ބޮޑަށް ޝުކުރިއްޔާ!https://t.co/8RUxTFB4UL pic.twitter.com/iTEZ4t4zGQ
— ނާޖިހު 🇲🇻 Naajih (@NaajihDidi) May 11, 2022
ދިވެހި ބަހަށް މި ލިބުނު މި ކާމިޔާބީއާ ގުޅިގެން ބަހަށް ލޯބިކުރާ ވަރަށް ގިނަ ދިވެހިން މިހާރު އަންނަނީ ގޫގުލް އިން ކޮށްދިން މަސައްކަތަށް ވަރަށް ބޮޑަށް ޝުކުރު ވެސް އަދާކުރަމުންނެވެ.
— dr shiyam (@IbrahimShiyam15) May 11, 2022
ގޫގުލް އިއްޔެ ޓްރާންސްލޭނަށް ދޫކޮށްލި 24 ބަހުގެ ލިސްޓްގައި ދިވެހި ބަހާ ބެހޭ ގޮތުން ބުނެފައި ވަނީ އެއީ ރާއްޖޭގެ 300،000 މީހުން ވާހަކަ ދައްކާ ބަސް ކަމަށެވެ.