ಉಚಿತ ಪಠ್ಯ ಉತ್ತರ ಆಧಾರಿತ ಪ್ರಶ್ನೆಗಳ ಸ್ವಯಂಚಾಲಿತ ಮೌಲ್ಯಮಾಪನ

ಉಚಿತ ಪಠ್ಯ ಉತ್ತರ ಆಧಾರಿತ ಪ್ರಶ್ನೆಗಳ ಸ್ವಯಂಚಾಲಿತ ಮೌಲ್ಯಮಾಪನ

ಬಹುಪಾಲು ಸ್ಪರ್ಧಾತ್ಮಕ ಪರೀಕ್ಷೆಗಳಲ್ಲಿ ಭಾಗವಹಿಸುವವರು ವಸ್ತುನಿಷ್ಠ ರೀತಿಯ ಪ್ರಶ್ನೆಗಳನ್ನು ಪರಿಹರಿಸಬೇಕಾಗುತ್ತದೆ, ಅಂದರೆ ಒಂದು ಅಥವಾ ಹೆಚ್ಚು ಸರಿಯಾದ ಆಯ್ಕೆಗಳನ್ನು ಕೊಟ್ಟಿರುವ ಉತ್ತರಗಳ ಗುಂಪಲ್ಲಿ ಆರಿಸಬೇಕು ಅಥವಾ ಭಾಗವಹಿಸುವವರು ಸಂಖ್ಯಾತ್ಮಕ ಮೌಲ್ಯವನ್ನು ನಮೂದಿಸಬೇಕಾಗುತ್ತದೆ. ವಸ್ತುನಿಷ್ಠ ರೀತಿಯ ಪ್ರಶ್ನೆಗಳನ್ನು ಆಧರಿಸಿದ ಪರೀಕ್ಷೆಗಳ ಮೌಲ್ಯಮಾಪನವು ಆದಷ್ಟು ನೇರವಾಗಿರುತ್ತದೆ.

ಆದಾಗ್ಯೂ, ಹಲವಾರು ಪರೀಕ್ಷೆಗಳಿವೆ,  ಉದಾರಣೆಗೆ ಮಂಡಳಿ ಪರೀಕ್ಷೆಗಳು, ಇವುಗಳಲ್ಲಿ ವ್ಯಕ್ತಿನಿಷ್ಠ ರೀತಿಯ ಪ್ರಶ್ನೆಗಳು ಒಳಗೊಂಡಿರುತ್ತವೆ. ವ್ಯಕ್ತಿನಿಷ್ಠ ಪ್ರಕಾರದ ಪ್ರಶ್ನೆಗಳ ಮೌಲ್ಯಮಾಪನವು ಇನ್ನೂ ಕೂಡ ಪ್ರಬಂಧದ ಅಂಕಗಳನ್ನು ಗುರಿಯಾಗಿಸಿಕೊಂಡಿರುವ ಯಶಸ್ವಿ ಪರಿಹಾರಗಳೊಂದಿಗೆ ತೆರೆದ ಸಂಶೋಧನಾ ಸಮಸ್ಯೆಯಾಗಿದೆ. ವಿವಿಧ ಶೈಕ್ಷಣಿಕ ವಿಭಾಗಗಳಲ್ಲಿ ವಿವಿಧ ಶೈಲಿಗಳ ವ್ಯಕ್ತಿನಿಷ್ಠ ಪ್ರಶ್ನೆಗಳನ್ನು ಉತ್ತರಿಸಬಲ್ಲ ಒಂದು ಸಾರ್ವತ್ರಿಕ ಮೌಲ್ಯಮಾಪಕವನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸುವುದಕ್ಕೆ ಮುಂದುವರೆದ NLP/NLU ಬಳಕೆಯ ಅಗತ್ಯವಿರುತ್ತದೆ ಮತ್ತು ಇದು Embibe ಗೆ ಆಸಕ್ತಿಯ ಕ್ಷೇತ್ರವಾಗಿದೆ.

ನಾವು ಸಮಸ್ಯೆಯನ್ನು ಎರಡು ಉಪ-ಸಮಸ್ಯೆಗಳಾಗಿ ವಿಂಗಡಿಸಬಹುದು.

  1. ಎಂಟಿಟಿ ಲಿಂಕಿಂಗ್
  2. ಲಾಕ್ಷಣಿಕ ಹೋಲಿಕೆ

ಎಂಟಿಟಿ ಲಿಂಕಿಂಗ್:

ಎಂಟಿಟಿ ಲಿಂಕಿಂಗ್‌ನಲ್ಲಿ, ನಾವು ಚಿಕ್ಕ ರೂಪಗಳು/ಅಕ್ರೋನಿಮ್‌ಗಳು ಮತ್ತು aka (ಹೀಗೂ ಕರೆಯಲಾಗುತ್ತದೆ) ಪ್ರಕಾರದ ಘಟಕಗಳನ್ನು ಸೇರಿಸಿಕೊಳ್ಳಬಹುದು. ಉದಾಹರಣೆಗೆ, ಸಂಕ್ಷಿಪ್ತ ರೂಪಗಳು

“PMC “: “ಪರಾಗ ಮಾತೃ ಕೋಶ”,

“MMC “: “ಮೆಗಾಸ್ಪೋರ್ ಮದರ್ ಸೆಲ್”,

“PEN”: “ಪ್ರಾಥಮಿಕ ಎಂಡೋಸ್ಪರ್ಮ್ ನ್ಯೂಕ್ಲಿಯಸ್”,

“PEC”: “ಪ್ರಾಥಮಿಕ ಎಂಡೋಸ್ಪೆರ್ಮ್ ಕೋಶ”,

“LH”: “ಲ್ಯುಟೈನೈಜಿಂಗ್ ಹಾರ್ಮೋನ್”,

“FSH “: “ಕೋಶಕ ಉತ್ತೇಜಿಸುವ ಹಾರ್ಮೋನ್”

ಮತ್ತು aka ಯು

“ಮಶ್ರೂಮ್”: “ಟೋಡ್ಸ್ಟೂಲ್”,

“ಸೂಕ್ಷ್ಮಜೀವಿಗಳು”: “ಸೂಕ್ಷ್ಮಜೀವಿಗಳು”,

“ಬ್ಯಾಕ್ಟೀರಿಯಾ”: “ಸೂಕ್ಷ್ಮಜೀವಿಗಳು”,

“ಯೀಸ್ಟ್”: “ಸೂಕ್ಷ್ಮಜೀವಿಗಳು”,

“ನವೀಕರಿಸಬಹುದಾದ”: “ಅಕ್ಷಯ”,

“ಗುಣಲಕ್ಷಣಗಳು”: “ಗುಣಲಕ್ಷಣಗಳು”,

ನಾವು ರಾಸಾಯನಿಕ ಹೆಸರಿನ ಘಟಕಗಳನ್ನು ಸಹ ಮ್ಯಾಪ್ ಮಾಡಬಹುದು,

‘(NH4)(NO3)’ : ‘ಅಮೋನಿಯಂ ನೈಟ್ರೇಟ್’,

‘(NH4)2C2O4’ : ‘ಅಮೋನಿಯಂ ಆಕ್ಸಲೇಟ್’,

‘Ag2O’ : ‘ಸಿಲ್ವರ್ ಆಕ್ಸೈಡ್’,

‘Ag2SO4’ : ‘ಸಿಲ್ವರ್ ಸಲ್ಫೇಟ್’,

‘Al(NO3)3’ : ‘ಅಲ್ಯೂಮಿನಿಯಂ ನೈಟ್ರೇಟ್’,

ಈ ಮ್ಯಾಪಿಂಗ್‌ಗಳನ್ನು ಬಳಸಿಕೊಂಡು, ನಾವು ಸಂಕ್ಷಿಪ್ತ ರೂಪಗಳು ಮತ್ತು ಅಂತಹುದೇ ಪದಗಳನ್ನು ನಕ್ಷೆ ಮಾಡಬಹುದು ಮತ್ತು ನಂತರ ಅವುಗಳನ್ನು ನಿಜವಾದ ಉತ್ತರಗಳೊಂದಿಗೆ ಹೊಂದಿಸಬಹುದು.

ಲಾಕ್ಷಣಿಕ ಹೋಲಿಕೆ:

ಎರಡು ವಾಕ್ಯಗಳು ಒಂದೇ ವಿಷಯವನ್ನು ಅರ್ಥೈಸಬಲ್ಲವು. ನಾವು ಡೊಮೇನ್-ಇನ್ಫ್ಯೂಸ್ಡ್ ಜ್ಞಾನವನ್ನು ಬಳಸಿಕೊಂಡು ಶಬ್ದಾರ್ಥದ ಹೋಲಿಕೆಯನ್ನು ಸ್ಥಾಪಿಸುತ್ತೇವೆ ಮತ್ತು ನೈಸರ್ಗಿಕ ಭಾಷೆಯ ತಿಳುವಳಿಕೆ ಮತ್ತು ಜ್ಞಾನವನ್ನು ತುಂಬಿದ ಕಲಿಕೆಯ ನಮ್ಮ ಅತ್ಯಾಧುನಿಕ ಸಂಶೋಧನೆಯನ್ನು ಬಳಸಿಕೊಂಡು ಭಾಷಾ ಮಾದರಿಯ ಸಂಭವನೀಯತೆಗಳನ್ನು ಊಹಿಸುತ್ತೇವೆ [3][4][5].

ನಾವು ವಿದ್ಯಾರ್ಥಿಯ ಉತ್ತರದ ಎಂಬೆಡಿಂಗ್ ಅನ್ನು ಪಡೆಯಬಹುದು ಮತ್ತು ಅದನ್ನು ನಿಜವಾದ ಉತ್ತರಕ್ಕೆ ಎಂಬೆಡಿಂಗ್‌ನೊಂದಿಗೆ ಹೋಲಿಸಬಹುದು. ಅವುಗಳ ನಡುವಿನ ಕೊಸೈನ್ ಅಂತರವು ನಿರ್ದಿಷ್ಟ ಮಿತಿಗಿಂತ ಕಡಿಮೆಯಿದ್ದರೆ, ನಾವು ಅವುಗಳನ್ನು ಮತ್ತು ಸಮಾನವಾಗಿ ಪರಿಗಣಿಸಬಹುದು ಮತ್ತು ಉತ್ತರವನ್ನು ಸರಿಯಾಗಿ ಗುರುತಿಸಬಹುದು.

ವಿದ್ಯಾರ್ಥಿಯ ಉತ್ತರ ಮತ್ತು ಸರಿಯಾದ ಉತ್ತರದ ಎಂಬೆಡಿಂಗ್‌ಗಳನ್ನು ಪಡೆಯಲು ನಾವು BERT[1] ಮತ್ತು RoBERTa[2] ನಂತಹ ಸ್ವಯಂ-ಗಮನ ಆಧಾರಿತ ಮಾದರಿಗಳನ್ನು ಬಳಸಬಹುದು ಮತ್ತು ಅವುಗಳ ನಡುವಿನ ಹೋಲಿಕೆಯನ್ನು ಪಡೆಯಲು ಅವುಗಳ ನಡುವಿನ ಕೊಸೈನ್ ಅಂತರವನ್ನು ಲೆಕ್ಕಾಚಾರ ಮಾಡಬಹುದು.

References

[1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”

[2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov. “RoBERTa: A Robustly Optimized BERT Pretraining Approach”

[3] Faldu, Keyur, Amit Sheth, Prashant Kikani, and Hemang Akabari. “KI-BERT: Infusing Knowledge Context for Better Language and Domain Understanding.” arXiv preprint arXiv:2104.08145 (2021).

[4] Gaur, Manas, Ankit Desai, Keyur Faldu, and Amit Sheth. “Explainable AI Using Knowledge Graphs.” In ACM CoDS-COMAD Conference. 2020.

[5] Gaur, Manas, Keyur Faldu, and Amit Sheth. “Semantics of the Black-Box: Can knowledge graphs help make deep learning systems more interpretable and explainable?.” IEEE Internet Computing 25, no. 1 (2021): 51-59.