Saas மூலம் AI அன்லாக்கிங்
மேதாஸ்
மேதாஸ் என்பது சமஸ்கிருத வார்த்தையாகும், இதன் பொருள் அறிவு, புரிதல் மற்றும் நுண்ணறிவு என்பதாகும். எட்டெக் AI தளத்தை உருவாக்க இயற்கை மொழி புரிதல் (NLU) இயங்குதளம் மிகவும் முக்கியமானது. NLU திறனகமானது உயர் குறியிடப்பட்ட கற்றல் மற்றும் மதிப்பீட்டு கருத்துக்கள், உள்ளடக்கம் சார்ந்த அறிவு வரைபடங்கள், எளிதில் புரியக்கூடிய மற்றும் விளக்க கூடிய முன் அனுமானங்களை மேம்படுத்த, மாணவர்கள் கற்றல் வெளிப்பாடுகளை அடைய தேவைப்படும் கருத்துக்களை உருவாக்க அல்லது பரிந்துரை செய்வதை சாத்தியமாக்குகிறது. கேள்வி உருவாக்கம், கேள்வி பதில், சந்தேகத் தீர்வு, உடனடித் தீர்ப்பான் போன்ற உள்ளடக்க நுண்ணறிவுப் பணிகள், கலை செயல்திறனை அடைய நேரடியாக உதவும் சில எடுத்துக்காட்டுகள்.
ஆழமான கற்றல் நுட்பங்கள், பரந்த அளவிலான கள பிரிவு பயன்பாடுகளில் அதன் தனித்திறன் என செயற்கை நுண்ணறிவு நீண்ட தூரம் வந்துவிட்டது. இருப்பினும், தற்போதைய செயற்கை நுண்ணறிவின் நிலை, பயிற்சித் தரவுகளில் புள்ளிவிவர ரீதியாகப் பிடிக்கப்பட்ட மறைந்த வடிவங்களைக் கற்றுக் கொண்டு பயிற்சி பெற்ற கருப்பு பெட்டி மாதிரிகளால் ஆதிக்கம் செலுத்தப்படுகிறது. இந்த மாதிரிகள் விவரிக்க முடியாதவை மட்டுமல்ல, வெளிப்படையாக வரையறுக்கப்பட்ட குறிப்பிட்ட கள பிரிவு சூழ்நிலைகளிலும் பாதிப்புக்கு ஆளாகக்கூடியவை.
மேதாஸின் குறிக்கோள்:
– ஆழமான கற்றல் மாதிரிகளை எளிதில் விளக்கக்கூடியதாகவும் மற்றும் புரிந்துகொள்ளகூடியதாகவும் மாற்றுவது.
– ஆழமான கற்றல் மாதிரிகளில், அறிவு வரைபடத்தில் வெளிப்படையாக வரையறுக்கப்பட்ட கள அறிவை புகுத்துவது.
– ஆழமான கற்றல் மாதிரிகளை உயர் தொழில்நுட்ப சாதனங்கள் மற்றும் வரையறுக்கப்பட்ட மூலவளம் உள்ள அமைப்புகளில் அணுக எளிதாக்குவது.
– வேறு வார்த்தைகளில்

அறிவு வரைபடங்களிலிருந்து அறிவு உட்பொதிப்பை சுய-கவனம் சார்ந்த மாதிரிகளில் புகுத்துகிறோம். எடுத்துக்காட்டாக, கருத்து நெட்டிலிருந்து “கவனமின்மை” போன்ற கருத்தியல் உட்பொதிவுகளை எடுத்து, அதை BERT-இல் டோக்கன் உட்பொதிப்புகளாக உட்செலுத்தினோம். “கவனமின்மை” அறிவு உட்பொதிக்கும் அதே செயல்முறையாகும். எனவே, அடுத்ததாக சுய-கவனம் அடுக்கானது ஒருங்கிணைந்த அறிவு மற்றும் “கவனமின்மை” மற்றும் “கவனக்குறைவு” போன்ற டோக்கன் உட்பொதித்தல்களில் கவனம் செலுத்தும்.

“கவனமின்மை” மற்றும் “கவனக்குறைவு” ஆகியவற்றின் அறிவு உட்பொதித்தல் மிகவும் ஒத்ததாக இருப்பதால், இவை இரண்டும் ஒரே மாதிரியானவை என்று மாதிரியானது நினைத்துக்கொள்ளும்.
மேலே உள்ள எடுத்துக்காட்டில், வார்த்தை நெட்டிலிருந்து “நிறை” மற்றும் “ஆரம்” போன்ற வேறுபட்ட உட்பொதிவுகளின் அறிவைப் பெறுகிறோம், மேலும் அதை BERT இன் சுய-கவனம் அடுக்கில் டோக்கன் உட்பொதிப்புடன் புகுத்துகிறோம். எனவே, அடுத்த சுய-கவனம் அடுக்கு, ஒருங்கிணைந்த அறிவு உட்பொதித்தல் மற்றும் வேறுபட்ட டோக்கன் உட்பொதித்தல் ஆகியவற்றில் கவனம் செலுத்தும், மேலும் இது உள்ளீட்டு வாக்கியத்தை சிறப்பாகப் புரிந்துகொள்ள உதவும்.
அறிவைப் புகுத்துவது எப்படி அதிக நம்பிக்கையை அளிக்கிறது:

மேலே உள்ள எடுத்துக்காட்டில் (இரண்டாவது கடைசி வரிசையில்) “பசுமை இல்ல விளைவு” மற்றும் “உள்ளேயே சிக்கவைத்தல்” மற்றும் “உள்ளீர்த்து கொள்ளுதல்” போன்ற வேறுபட்ட வார்த்தைகளை சேர்த்த பிறகு, அது சரியான கணிப்பைச் செய்தது மட்டுமல்லாமல், கணிப்பைச் செய்வதில் நம்பிக்கையையும் ஏற்படுத்தியது. நாங்கள் கூடுதல் வார்த்தைகளை சேர்த்ததால் 60.55% ஆக அதிகரித்தது.
முறையே “சூரிய கதிர்வீச்சு” மற்றும் “காரணம்” போன்ற வேறுபட்ட மற்றும் கருத்தியல் வார்த்தைகளை நாங்கள் சேர்த்தபோது, நம்பிக்கை 61.97% ஆக அதிகரித்தது.
சுருக்கமாக, நாம் அதிக அர்த்தமுள்ள வார்த்தைகளை சேர்க்கும்போது, அது சரியான கணிப்புகளைச் செய்வது மட்டுமல்லாமல் (வெண்ணிலாBERT தவறான கணிப்பு செய்வதைப் போலல்லாமல்) மாதிரியின் நம்பிக்கையையும் அதிகரித்தது.
மேதாஸ் தளமானது EMBIBE-யின் கல்வி ஆராய்ச்சி ஆய்வகத்தால் உருவாக்கப்பட்டது. கல்வி ஆராய்ச்சி ஆய்வகம் என்பது மிகப்பெரிய தாக்கத்துடன் கூடிய முக்கிய வெளிப்படை சிக்கல்களைக் கண்டறிந்து அசல் மதிப்பு முன்மொழிவுகளைக் கண்டுபிடிப்பதன் மூலம் கலை ஆராய்ச்சியின் நிலையை உயர்த்துவதற்கான ஒரு ஒழுங்குபடுத்தப்பட்ட முக்கிய முயற்சியாகும்.
ரெபெரென்ஸ்:
[4] Rise of Modern NLP and the Need of Interpretability!
[5] Discovering the Encoded Linguistic Knowledge in NLP models
[6] Linguistics Wisdom of NLP Models
← AI ஹோமிற்கு பின் செல்லவும்