ಸ್ವಯಂಚಾಲಿತವಾಗಿ ಪ್ರಶ್ನೆಗಳಿಗೆ ಉತ್ತರಿಸಲು ಪರಿಹಾರಕ ತಂತ್ರಜ್ಞಾನ
ವಿದ್ಯಾರ್ಥಿಗಳಿಗೆ ನೂರಾರು ಪರೀಕ್ಷೆಗಳ ಪಠ್ಯಕ್ರಮದಿಂದ ಸಾವಿರಾರು ಪರಿಕಲ್ಪನೆಗಳ ಮೇಲೆ ಪ್ರಶ್ನೆಗಳನ್ನು ಅಭ್ಯಾಸ ಮಾಡಲು EdTech ವೇದಿಕೆಯಾಗಿ ಅವಕಾಶ ಒದಗಿಸುವ Embibe, ನಿರ್ದಿಷ್ಟ ಪ್ರಶ್ನೆಯೊಂದನ್ನು ಪರಿಹರಿಸುವುದು ಹೇಗೆಂದು ಅರ್ಥಮಾಡಿಕೊಳ್ಳಲು ವಿದ್ಯಾರ್ಥಿಗಳಿಗೆ ನೆರವಾಗಲು ವಿವರಣೆಗಳು ಮತ್ತು ಹಂತ ಹಂತವಾಗಿ ಪರಿಹಾರ ಮಾರ್ಗದರ್ಶನಗಳೊಂದಿಗೆ ಪ್ರಶ್ನೆಗಳನ್ನು ಉತ್ಕೃಷ್ಟಗೊಳಿಸುವಲ್ಲಿ ಹೂಡಿಕೆ ಮಾಡಿದೆ. ಇದು ಮಾನವ ವಿಷಯ ತಜ್ಞರು ಪ್ರಶ್ನೆಗಳನ್ನು ಪರಿಹರಿಸುವ ದೈಹಿಕ ಶ್ರಮದ ಪ್ರಕ್ರಿಯೆಯಾಗಿದೆ.
Embibe ನ ಪ್ರಶ್ನೆಗಳ ದತ್ತಾಂಶ ಸಮುಚ್ಚಯಗಳು ಬೆಳೆದಂತೆ, ದೈಹಿಕ ಶ್ರಮದಿಂದ ರಚಿಸಿದ ಪರಿಹಾರಗಳ ಬಳಕೆ ಅವಲಂಬಿಸುವುದು ದುಬಾರಿಯಾಗುತ್ತದೆ. ಪರಿಹಾರಕ ತಂತ್ರಜ್ಞಾನ ಇನ್ನೂ ತುಲನಾತ್ಮಕವಾಗಿ ಹೊಸ ಕ್ಷೇತ್ರವಾಗಿದ್ದು, ಮಧ್ಯಂತರ ಮಟ್ಟದ ಗಣಿತದಂತಹ ಕೆಲವು ನಿರ್ದಿಷ್ಟ ಡೊಮೇನ್ಗಳಲ್ಲಿ ಪಠ್ಯ ಪ್ರಶ್ನೆಗಳನ್ನು ಪರಿಹರಿಸಲು ಅಲ್ಗಾರಿದಮ್ಗಳನ್ನು ಉತ್ಪಾದಿಸುವಲ್ಲಿ ಕೆಲವು ಯಶಸ್ಸನ್ನು ಕಂಡಿದೆ.
ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಪ್ರಶ್ನೆಗಳಿಗೆ ಉತ್ತರಗಳನ್ನು ಮತ್ತು ಹಂತ-ಹಂತದ ಪರಿಹಾರಗಳನ್ನು ಸ್ವಯಂಚಾಲಿತವಾಗಿ ಉತ್ಪಾದಿಸಲು ಸಾಧ್ಯವಾಗುವಂತೆ Embibe ಈ ಕ್ಷೇತ್ರದಲ್ಲಿ ಸಂಶೋಧನೆಯನ್ನು ಮುಂದುವರಿಸುತ್ತಿದೆ.
ಸಮಸ್ಯೆ ಹೇಳಿಕೆ
ಗಣಿತದ ಪಠ್ಯ ಪ್ರಶ್ನೆಯನ್ನು ನೀಡಿದರೆ, ಅದನ್ನು ಪರಿಹಾರಕ ಸಂಕೇತಗಳನ್ನು ಬಳಸಿ ಪರಿಹರಿಸುವುದು ಮತ್ತು ಹಂತ-ಹಂತವಾಗಿ ಉತ್ತರವನ್ನು ಒದಗಿಸುವುದು.
ವಿದ್ಯಾರ್ಥಿಯು ಯಾವುದೇ ರೀತಿಯ ಪ್ರಶ್ನೆಗಳನ್ನು ಕೇಳಬಹುದು ಮತ್ತು ಅದು ನಿರ್ದಿಷ್ಟ ನಮೂನೆಯಲ್ಲಿ ಇರಬೇಕು ಎಂಬ ಅವಶ್ಯಕತೆ ಇಲ್ಲ. ನಾವು ಅದನ್ನು ಪರಿಹರಿಸಲು ಮತ್ತು ಉತ್ತರದ ಹಂತಗಳನ್ನು ನೀಡಲು ಪ್ರಯತ್ನಿಸುತ್ತೇವೆ.
ವಿಧಾನ
ಇಡೀ ಪ್ರಕ್ರಿಯೆಯು ಹೇಗೆ ಕಾಣುತ್ತದೆ ಎಂಬುದು ಇಲ್ಲಿದೆ:
ಉದಾಹರಣೆಗೆ,
ಇಲ್ಲಿ 6ನೇ ತರಗತಿ ಸಿಬಿಎಸ್ಇ ಒಂದು ಪ್ರಶ್ನೆ ಇದೆ:
“ಅಂಕಿಗಳಲ್ಲಿ ಬರೆಯಿರಿ- ಎರಡು ಲಕ್ಷ ಐವತ್ತು ಸಾವಿರ ಒಂಬೈನೂರ ಮೂವತ್ತಾರು”
ಹಾಗಾದರೆ ಮೊದಲ ಹಂತದಲ್ಲಿ, ಈ ಪ್ರಶ್ನೆಯನ್ನು ಪರಿಹರಿಸಬಹುದಾದ ಪರಿಹಾರಕ ಸಂಕೇತವನ್ನು ಊಹಿಸಲು ನಾವು ಪ್ರಯತ್ನಿಸುತ್ತೇವೆ, ಅದು ” ಪಠ್ಯವನ್ನು_ಸಂಖ್ಯೆಗೆ- ಪರಿವರ್ತಿಸಿ”.
ಮುಂದಿನ ಹಂತದಲ್ಲಿ, ಊಹಿಸಿದ ಪರಿಹಾರಕವನ್ನು ಮೌಲ್ಯಮಾಪನ ಮಾಡಲು ನಾವು ಮಾಹಿತಿಯನ್ನು ಪಡೆಯುತ್ತೇವೆ. ಆದ್ದರಿಂದ ಈ ಸಂದರ್ಭದಲ್ಲಿ ಪರಿಹಾರಕಕ್ಕೆ ಇನ್ಪುಟ್ ಮಾಹಿತಿಯು “ಎರಡು ಲಕ್ಷ ಐವತ್ತು ಸಾವಿರ ಒಂಬೈನೂರ ಮೂವತ್ತಾರು”.
ಆದ್ದರಿಂದ, ನಾವು ಸಂಪೂರ್ಣ ಪರಿಹಾರಕವನ್ನು ಪಡೆಯುತ್ತೇವೆ:
ಪಠ್ಯವನ್ನು _ಸಂಖ್ಯೆಗೆ_ ಪರಿವರ್ತಿಸಿ (ಎರಡು ಲಕ್ಷ ಐವತ್ತು ಸಾವಿರ ಒಂಬೈನೂರ ಮೂವತ್ತಾರು).
ಉತ್ತರ ಮತ್ತು ಹಂತಹಂತದ ಪರಿಹಾರವನ್ನು ಪಡೆಯಲು ನಾವು ಮಾಹಿತಿಯನ್ನು ಪರಿಹಾರದೊಂದಿಗೆ ಮೌಲ್ಯಮಾಪನ ಮಾಡುತ್ತೇವೆ, ಅದು ಈ ರೀತಿ ಕಾಣುತ್ತದೆ:
ಇನ್ನೊಂದು ಉದಾಹರಣೆಯ ಪ್ರಶ್ನೆಯೊಂದಿಗೆ ವಿವರಿಸೋಣ:
“ಶ್ರೀಮತಿ ಸೋನಿ 7 ½ ಲೀಟರ್ ಹಾಲನ್ನು ಖರೀದಿಸಿದ್ದಾರೆ, ಈ ಹಾಲಿನಿಂದ 5 ¾ ಲೀಟರ್ ಬಳಸಲಾಗಿದೆ. ಹಾಗಾದರೆ ಅವರ ಹತ್ತಿರ ಎಷ್ಟು ಹಾಲು ಉಳಿದಿದೆ?”
ಇದನ್ನು “ವ್ಯವಕಲನ_ಭಿನ್ನರಾಶಿ_ಮಿಶ್ರ_ವಿಧ (7 ½, 5 ¾)” ಪರಿಹಾರಕ ಸಂಕೇತ ಬಳಸಿ ಪರಿಹರಿಸಬಹುದು.
ನಾವು ಈ ರೀತಿಯ ಪರಿಹಾರ ಹಂತಗಳನ್ನು ಪಡೆಯುತ್ತೇವೆ.
ಪರಿಹಾರ
ಪರಿಹಾರವನ್ನು ನಾವು ಎರಡು ಹಂತಗಳಾಗಿ ವಿಂಗಡಿಸಬಹುದು:
- ಪರಿಹಾರಕ ಸಂಕೇತ ಊಹನೆ
- ವಾದ ಉದ್ಧರಣ
ಪರಿಹಾರಕ ಸಂಕೇತ ಊಹನೆಯಲ್ಲಿ, ನೀಡಲಾಗಿರುವ ಗಣಿತದ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸಬಹುದಾದ ಪರಿಹಾರಕ ಸಂಕೇತಗಳನ್ನು ಊಹಿಸಲು ನಾವು ಪ್ರಯತ್ನಿಸಬಹುದು. ಉದಾಹರಣೆಗೆ, ಮೇಲಿನ ನಿದರ್ಶನದಲ್ಲಿ, “ವ್ಯವಕಲನ_ಭಿನ್ನರಾಶಿಗಳು_ಮಿಶ್ರ_ವಿಧ” ನೀಡಲಾದ ಸಮಸ್ಯೆಯನ್ನು ಪರಿಹರಿಸಲು ಉಪಯೋಗಿಸಿದ ಸರಿಯಾದ ಪರಿಹಾರಕವಾಗಿದೆ. ಸಮಸ್ಯೆಯನ್ನು ಪರಿಹರಿಸುವ ಪರಿಹಾರಕ ಸಂಕೇತವನ್ನು ಉತ್ಪಾದಿಸುವ T5[1] ನಂತಹ ಆಳವಾದ ಕಲಿಕೆ ಜನರೇಟೀವ್ ಸೀಕ್2ಸೀಕ್ ಮಾದರಿಗಳನ್ನು ನಾವು ಬಳಸಬಹುದು.
ಎರಡನೇ ಹಂತಕ್ಕೆ ನಾವು ಸಾಗುವ ಮುನ್ನ, ಪ್ರತಿ ಪರಿಹಾರಕ ಸಂಕೇತಕ್ಕೆ ವಾದಗಳೊಂದಿಗೆ ನಾವು 1 ಮಾದರಿ ಪರಿಹಾರಕವನ್ನು ಹೊಂದಿರಬೇಕಾಗುತ್ತದೆ. ಉದಾಹರಣೆಗೆ, “ವ್ಯವಕಲನ_ಭಿನ್ನರಾಶಿಗಳು_ಮಿಶ್ರ_ವಿಧ” ಕ್ಕಾಗಿನ ಒಂದು ಮಾದರಿ ಪರಿಹಾರಕವು “ವ್ಯವಕಲನ_ಭಿನ್ನರಾಶಿಗಳು_ಮಿಶ್ರ_ವಿಧ”(1 2/3, 4 5/6)” ದಂತಹದ್ದಾಗಿರಬಹುದು. ಇದು ಹೇಗೆ ಉಪಯುಕ್ತವಾಗುತ್ತದೆ ಎಂಬುದನ್ನು ನಾವು ಶೀಘ್ರದಲ್ಲೇ ಅನ್ವೇಷಿಸಲಿದ್ದೇವೆ.
ನೀಡಲಾದ ಸಮಸ್ಯೆಯನ್ನು ಪರಿಹರಿಸಬಹುದಾದ ಊಹಿಸಲಾದ ಪರಿಹಾರಕ ಸಂಕೇತವನ್ನು ನಾವು ಪಡೆದಾಗ, ಪ್ರಶ್ನೆಯಿಂದ ವಾದಗಳನ್ನು ನಾವು ಪಡೆಯಬೇಕಾಗುತ್ತದೆ. ಅದಕ್ಕಾಗಿ ಕೂಡಾ, T5[1] ನಂತಹ ಜನರೇಟೀವ್ ಸೀಕ್2ಸೀಕ್ ಮಾದರಿಗಳನ್ನು ನಾವು ಬಳಸಬಹುದು. ಅಂತಹ ಭಾಷಾ ಮಾದರಿಗಳು ನಾಲೆಡ್ಜ್ ಗ್ರಾಫ್ ಗಳಲ್ಲಿ ಗ್ರಹಿಸಲಾದ ಲಾಕ್ಷಣಿಕ ಸಂಬಂಧಗಳನ್ನು ಬಳಸಲು ಜ್ಞಾನ ಆಧಾರಿತ ವಿನ್ಯಾಸದೊಂದಿಗೆ ಮತ್ತಷ್ಟು ವಿಸ್ತರಣೆಗೊಂಡಿವೆ [3][4]. ನಾವು ಸಮಸ್ಯೆ ಹೇಳಿಕೆ ಮತ್ತು ಊಹನೆಯ ಪರಿಹಾರಕಕ್ಕೆ ಮಾದರಿ ಪರಿಹಾರಕವನ್ನು ನೀಡಬಹುದು. T5[1] ಮಾದರಿಯಿಂದ ಪ್ರಶ್ನೆಗಳಿಂದ ವಾಸ್ತವಿಕ ವಾದಗಳೊಂದಿಗೆ ಪರಿಹಾರಕ ಸಂಕೇತವನ್ನು ನಾವು ಪಡೆಯುತ್ತೇವೆ. ಆಗ ಕೊನೆಯಲ್ಲಿ, ವಾದಗಳೊಂದಿಗೆ ಪರಿಹಾರಕ ಸಂಕೇತವನ್ನು ಅಂದರೆ, ಮೇಲಿನ ಉದಾಹರಣೆಯಿಂದ “ವ್ಯವಕಲನ_ಭಿನ್ನರಾಶಿಗಳು_ಮಿಶ್ರ_ವಿಧ(7 1/2, 5 3/4)” ನಾವು ಹೊಂದುತ್ತೇವೆ.
ಪ್ರಶ್ನೆಯಿಂದ ವಾದಗಳನ್ನು ಪಡೆಯಲು ತುಲನಾತ್ಮಕವಾಗಿ ಇತರೆ ಸರಳ ವಿಧಾನಗಳನ್ನು ಕೂಡಾ ನಾವು ಬಳಸಬಹುದು. ಅಂದರೆ, ಪ್ರತಿ ಪರಿಹಾರಕಕ್ಕೆ ನಾವು ಡೇಟಾ ವಿಧಗಳು ಮತ್ತು ವಾದಗಳ ಮಾದರಿಗಳನ್ನು ಹೊಂದಿದ್ದರೆ, ನಮ್ಮ ಪ್ರಕರಣದಲ್ಲಿ, ನಾವು ಪ್ರಶ್ನೆಯಿಂದ ಇದೇ ರೀತಿಯ ಪ್ರಶ್ನೆಗಳನ್ನು ಪಡೆಯಲು ನಾವು ಪ್ರಯತ್ನಿಸಬಹುದು.
ಈ ರೀತಿಯಾಗಿ ನಾವು ಪರಿಹಾರಕ ಸಂಕೇತವನ್ನು ಊಹಿಸುತ್ತೇವೆ ಮತ್ತು ಪ್ರಶ್ನೆಯಿಂದ ಪರಿಹಾರಕ ವಾದಗಳನ್ನು ಪಡೆಯುತ್ತೇವೆ. ಇವುಗಳೆರಡನ್ನೂ ನಾವು ಪಡೆದ ಬಳಿಕ, ಸರಿಯಾದ ಉತ್ತರ ಮತ್ತು ಹಂತ ಹಂತದ ಪರಿಹಾರವನ್ನು ಪಡೆಯಲು ನಾವು ಪರಿಹಾರಕ ಸಂಕೇತವನ್ನು ಮೌಲ್ಯಮಾಪನ ಮಾಡಿದರೆ ಸಾಕು.
References
[1] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J. Liu. “Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer”
[2] Amini, Aida, Saadia Gabriel, Peter Lin, Rik Koncel-Kedziorski, Yejin Choi, and Hannaneh Hajishirzi. “MathQA: Towards interpretable math word problem solving with operation-based formalisms.” arXiv preprint arXiv:1905.13319 (2019).
[3] Faldu, Keyur, Amit Sheth, Prashant Kikani, and Hemang Akabari. “KI-BERT: Infusing Knowledge Context for Better Language and Domain Understanding.” arXiv preprint arXiv:2104.08145 (2021).
[4] Gaur, Manas, Keyur Faldu, and Amit Sheth. “Semantics of the Black-Box: Can knowledge graphs help make deep learning systems more interpretable and explainable?.” IEEE Internet Computing 25, no. 1 (2021): 51-59.