Нейросетевой метод классификации текстов групп социальной сети Вконтакте

Аннотация

Классификация текстовых данных с помощью нейросетей находит свое применение в многочисленных проектах. Применяются различные структуры искусственных нейросетей с варьирующимися параметрами. В данной статье описан процесс создания и тренировки нейросети, направленной на классификацию записей из социальной сети Вконтакте. Цель работы состоит в том, чтобы проверить применимость нейросетей для решения поставленной задачи. В качестве программного инструмента для создания нейросети использовался пакет TensorFlow. Данные для обучения нейросети получены из записей групп с определенной тематикой (биология, информационные технологии, кино). Алгоритм автоматической классификации текстов групп социальной сети Вконтакте, апробированный в исследовании, будет использован при разработке содержательного компонента функциональной психометрической модели когнитивно – поведенческих предикторов активности личности в рамках ее образовательной деятельности.

Сведения об авторах

Konstantin Sergeevich Nikolaev, Казанский (Приволжский) федеральный университет

старший лаборант

Nagim Muhamatnurovich Davletshin, Казанский (Приволжский) федеральный университет

лаборант

Andrey Anatolyevich Berdnikov, Казанский (Приволжский) федеральный университет

лаборант

Литература

[1] Zaghloul W., Lee S.M., Trimi S. Text classification: neural networks vs support vector machines. Industrial Management & Data Systems. 2009; 109(5):708-717. (In Eng.) DOI: https://doi.org/10.1108/02635570910957669
[2] Jin Y., Luo C., Guo W., Xie J., Wu D., Wang R. Text Classification Based on Conditional Reflection. IEEE Access. 2019; 7:76712-76719. (In Eng.) DOI: https://doi.org/10.1109/ACCESS.2019.2921976
[3] Prusa J. D., Khoshgoftaar T. M. Designing a Better Data Representation for Deep Neural Networks and Text Classification. In: 2016 IEEE 17th International Conference on Information Reuse and Integration (IRI), Pittsburgh, PA; 2016. p. 411-416. (In Eng.) DOI: https://doi.org/10.1109/IRI.2016.61
[4] Wen Y., Zhang W., Luo R., Wang J. Learning text representation using recurrent convolutional neural network with highway layers. arXiv:1606.06905 [cs.CL], 2016. Available at: https://arxiv.org/abs/1606.06905 (accessed 06.12.2019). (In Eng.).
[5] Rajasundari T., Subathra P., Kumar P.N. Performance Analysis of Topic Modeling Algorithms for News Articles. Journal of Advanced Research in Dynamical and Control Systems. 2017; 11:175-183. (In Eng.).
[6] Liu P., Qiu X., Huang X. Recurrent neural network for text classification with multi-task learning. arXiv:1605.05101 [cs.CL], 2016. Available at: https://arxiv.org/abs/1605.05101 (accessed 06.12.2019). (In Eng.).
[7] Lai S., Xu L., Liu K., Zhao J. Recurrent convolutional neural networks for text classification. In: Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence (AAAI'15). AAAI Press; 2015. p. 2267-2273. (In Eng.).
[8] Fauzi M.A., Arifin A.Z., Gosaria S.C. Indonesian News Classification Using Naïve Bayes and Two-Phase Feature Selection Model. Indonesian Journal of Electrical Engineering and Computer Science. 2017; 8(3):610-615. (In Eng.) DOI: http://doi.org/10.11591/ijeecs.v8.i3.pp610-615
[9] Bindu K. R., Parameswaran L., Soumya K.V. Performance Evaluation of Topic Modelling Algorithms with an application of Q A Dataset. International Journal of Applied Engineering Research. 2015; 10(73):23-27. (In Eng.).
[10] Jacovi A., Shalom O.S., Goldberg Y. Understanding Convolutional Neural Networks for Text Classification. In: Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP. Association for Computational Linguistics, Brussels, Belgium; 2018. p. 56-65. (In Eng.) DOI: http://doi.org/10.18653/v1/W18-5408
[11] Shankar S., Robertson D., Ioannou Y., Criminisi A., Cipolla R. Refining Architectures of Deep Convolutional Neural Networks. In: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV; 2016. p. 2212-2220. (In Eng.) DOI: http://doi.org/10.1109/CVPR.2016.243
[12] Iandola F.N., Han S., Moskewicz M.W., Ashraf K., Dally W.J., Keutzer K. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size. arXiv:1602.07360v4 [cs.CV], 2016. 13 p. Available at: https://arxiv.org/pdf/1602.7360.pdf (accessed 06.12.2019). (In Eng.).
[13] Teerapittayanon S., McDanel B., Kung H.T. Distributed Deep Neural Networks Over the Cloud, the Edge and End Devices. In: 2017 IEEE 37th International Conference on Distributed Computing Systems (ICDCS), Atlanta, GA; 2017. p. 328-339. (In Eng.) DOI: http://doi.org/10.1109/ICDCS.2017.226
[14] Skansi S. Convolutional Neural Networks. In: Introduction to Deep Learning. Undergraduate Topics in Computer Science. Springer, Cham; 2018. (In Eng.) DOI: https://doi.org/10.1007/978-3-319-73004-2_6
[15] Zhang X., Zhao J., LeCun Ya. Character-level convolutional networks for text classification. In: Proceedings of the 28th International Conference on Neural Information Processing Systems - Volume 1 (NIPS'15). MIT Press, Cambridge, MA, USA; 2015. p. 649-657. (In Eng.).
Опубликована
2020-05-25
Как цитировать
NIKOLAEV, Konstantin Sergeevich; DAVLETSHIN, Nagim Muhamatnurovich; BERDNIKOV, Andrey Anatolyevich. Нейросетевой метод классификации текстов групп социальной сети Вконтакте. Современные информационные технологии и ИТ-образование, [S.l.], v. 16, n. 1, p. 127-131, may 2020. ISSN 2411-1473. Доступно на: <http://sitito.cs.msu.ru/index.php/SITITO/article/view/608>. Дата доступа: 19 nov. 2024 doi: https://doi.org/10.25559/SITITO.16.202001.127-131.
Раздел
Исследования и разработки в области новых ИТ и их приложений