மேதாஸ்

மேதாஸ் என்பது சமஸ்கிருத வார்த்தையாகும், இதன் பொருள் அறிவு, புரிதல் மற்றும் நுண்ணறிவு என்பதாகும். எட்டெக் AI தளத்தை உருவாக்க இயற்கை மொழி புரிதல் (NLU) இயங்குதளம் மிகவும் முக்கியமானது. NLU திறனகமானது உயர் குறியிடப்பட்ட கற்றல் மற்றும் மதிப்பீட்டு கருத்துக்கள், உள்ளடக்கம் சார்ந்த அறிவு வரைபடங்கள், எளிதில் புரியக்கூடிய மற்றும் விளக்க கூடிய முன் அனுமானங்களை மேம்படுத்த, மாணவர்கள் கற்றல் வெளிப்பாடுகளை அடைய தேவைப்படும் கருத்துக்களை உருவாக்க அல்லது பரிந்துரை செய்வதை சாத்தியமாக்குகிறது. கேள்வி உருவாக்கம், கேள்வி பதில், சந்தேகத் தீர்வு, உடனடித் தீர்ப்பான் போன்ற உள்ளடக்க நுண்ணறிவுப் பணிகள், கலை செயல்திறனை அடைய நேரடியாக உதவும் சில எடுத்துக்காட்டுகள்.

ஆழமான கற்றல் நுட்பங்கள், பரந்த அளவிலான கள பிரிவு  பயன்பாடுகளில் அதன் தனித்திறன் என  செயற்கை நுண்ணறிவு நீண்ட தூரம் வந்துவிட்டது. இருப்பினும், தற்போதைய செயற்கை நுண்ணறிவின் நிலை, பயிற்சித் தரவுகளில் புள்ளிவிவர ரீதியாகப் பிடிக்கப்பட்ட மறைந்த வடிவங்களைக் கற்றுக் கொண்டு பயிற்சி பெற்ற கருப்பு பெட்டி மாதிரிகளால் ஆதிக்கம் செலுத்தப்படுகிறது. இந்த மாதிரிகள் விவரிக்க முடியாதவை மட்டுமல்ல,  வெளிப்படையாக வரையறுக்கப்பட்ட குறிப்பிட்ட கள பிரிவு சூழ்நிலைகளிலும் பாதிப்புக்கு ஆளாகக்கூடியவை.

மேதாஸின் குறிக்கோள்:

–    ஆழமான கற்றல் மாதிரிகளை எளிதில் விளக்கக்கூடியதாகவும்  மற்றும் புரிந்துகொள்ளகூடியதாகவும் மாற்றுவது. 

–    ஆழமான கற்றல் மாதிரிகளில், அறிவு வரைபடத்தில் வெளிப்படையாக வரையறுக்கப்பட்ட கள அறிவை புகுத்துவது.

–    ஆழமான கற்றல் மாதிரிகளை உயர் தொழில்நுட்ப  சாதனங்கள் மற்றும் வரையறுக்கப்பட்ட  மூலவளம் உள்ள அமைப்புகளில் அணுக எளிதாக்குவது. 

– வேறு வார்த்தைகளில் 

அறிவு வரைபடங்களிலிருந்து அறிவு உட்பொதிப்பை சுய-கவனம் சார்ந்த மாதிரிகளில் புகுத்துகிறோம். எடுத்துக்காட்டாக, கருத்து நெட்டிலிருந்து  “கவனமின்மை” போன்ற கருத்தியல் உட்பொதிவுகளை எடுத்து, அதை BERT-இல் டோக்கன் உட்பொதிப்புகளாக உட்செலுத்தினோம். “கவனமின்மை” அறிவு உட்பொதிக்கும் அதே செயல்முறையாகும். எனவே, அடுத்ததாக சுய-கவனம் அடுக்கானது ஒருங்கிணைந்த அறிவு மற்றும் “கவனமின்மை” மற்றும் “கவனக்குறைவு” போன்ற  டோக்கன் உட்பொதித்தல்களில் கவனம் செலுத்தும்.

“கவனமின்மை” மற்றும் “கவனக்குறைவு” ஆகியவற்றின் அறிவு உட்பொதித்தல் மிகவும் ஒத்ததாக இருப்பதால், இவை இரண்டும் ஒரே மாதிரியானவை என்று மாதிரியானது நினைத்துக்கொள்ளும்.

மேலே உள்ள எடுத்துக்காட்டில், வார்த்தை நெட்டிலிருந்து “நிறை” மற்றும் “ஆரம்” போன்ற வேறுபட்ட உட்பொதிவுகளின் அறிவைப் பெறுகிறோம், மேலும் அதை BERT இன் சுய-கவனம் அடுக்கில் டோக்கன் உட்பொதிப்புடன் புகுத்துகிறோம். எனவே, அடுத்த சுய-கவனம் அடுக்கு, ஒருங்கிணைந்த அறிவு உட்பொதித்தல் மற்றும் வேறுபட்ட டோக்கன் உட்பொதித்தல் ஆகியவற்றில் கவனம் செலுத்தும், மேலும் இது உள்ளீட்டு வாக்கியத்தை சிறப்பாகப் புரிந்துகொள்ள உதவும்.

அறிவைப் புகுத்துவது எப்படி அதிக நம்பிக்கையை அளிக்கிறது:

மேலே உள்ள எடுத்துக்காட்டில் (இரண்டாவது கடைசி வரிசையில்) “பசுமை இல்ல விளைவு” மற்றும் “உள்ளேயே சிக்கவைத்தல்” மற்றும் “உள்ளீர்த்து கொள்ளுதல்” போன்ற வேறுபட்ட வார்த்தைகளை சேர்த்த பிறகு, அது சரியான கணிப்பைச் செய்தது மட்டுமல்லாமல், கணிப்பைச் செய்வதில் நம்பிக்கையையும் ஏற்படுத்தியது. நாங்கள் கூடுதல் வார்த்தைகளை சேர்த்ததால் 60.55% ஆக அதிகரித்தது.

முறையே “சூரிய கதிர்வீச்சு” மற்றும் “காரணம்” போன்ற வேறுபட்ட மற்றும் கருத்தியல் வார்த்தைகளை நாங்கள் சேர்த்தபோது, நம்பிக்கை 61.97% ஆக அதிகரித்தது.

சுருக்கமாக, நாம் அதிக அர்த்தமுள்ள வார்த்தைகளை சேர்க்கும்போது, அது சரியான கணிப்புகளைச் செய்வது மட்டுமல்லாமல் (வெண்ணிலாBERT தவறான கணிப்பு செய்வதைப் போலல்லாமல்) மாதிரியின் நம்பிக்கையையும் அதிகரித்தது.

மேதாஸ் தளமானது EMBIBE-யின் கல்வி ஆராய்ச்சி ஆய்வகத்தால் உருவாக்கப்பட்டது. கல்வி ஆராய்ச்சி ஆய்வகம் என்பது மிகப்பெரிய தாக்கத்துடன் கூடிய முக்கிய வெளிப்படை சிக்கல்களைக் கண்டறிந்து அசல் மதிப்பு முன்மொழிவுகளைக் கண்டுபிடிப்பதன் மூலம் கலை ஆராய்ச்சியின் நிலையை உயர்த்துவதற்கான ஒரு ஒழுங்குபடுத்தப்பட்ட முக்கிய முயற்சியாகும்.

ரெபெரென்ஸ்:

[1] Gaur, Manas, Keyur Faldu, and Amit Sheth. “Semantics of the Black-Box: Can knowledge graphs help make deep learning systems more interpretable and explainable?.” IEEE Internet Computing 25, no. 1 (2021): 51-59.

[2] Faldu, Keyur, Amit Sheth, Prashant Kikani, and Hemang Akabari. “KI-BERT: Infusing Knowledge Context for Better Language and Domain Understanding.” arXiv preprint arXiv:2104.08145 (2021).

[3] Gaur, Manas, Ankit Desai, Keyur Faldu, and Amit Sheth. “Explainable AI Using Knowledge Graphs.” In ACM CoDS-COMAD Conference. 2020.

[4] Rise of Modern NLP and the Need of Interpretability!

[5] Discovering the Encoded Linguistic Knowledge in NLP models

[6] Linguistics Wisdom of NLP Models

← AI ஹோமிற்கு பின் செல்லவும்