Нейросетевой метод классификации текстов групп социальной сети Вконтакте
Аннотация
Классификация текстовых данных с помощью нейросетей находит свое применение в многочисленных проектах. Применяются различные структуры искусственных нейросетей с варьирующимися параметрами. В данной статье описан процесс создания и тренировки нейросети, направленной на классификацию записей из социальной сети Вконтакте. Цель работы состоит в том, чтобы проверить применимость нейросетей для решения поставленной задачи. В качестве программного инструмента для создания нейросети использовался пакет TensorFlow. Данные для обучения нейросети получены из записей групп с определенной тематикой (биология, информационные технологии, кино). Алгоритм автоматической классификации текстов групп социальной сети Вконтакте, апробированный в исследовании, будет использован при разработке содержательного компонента функциональной психометрической модели когнитивно – поведенческих предикторов активности личности в рамках ее образовательной деятельности.
Литература
[2] Jin Y., Luo C., Guo W., Xie J., Wu D., Wang R. Text Classification Based on Conditional Reflection. IEEE Access. 2019; 7:76712-76719. (In Eng.) DOI: https://doi.org/10.1109/ACCESS.2019.2921976
[3] Prusa J. D., Khoshgoftaar T. M. Designing a Better Data Representation for Deep Neural Networks and Text Classification. In: 2016 IEEE 17th International Conference on Information Reuse and Integration (IRI), Pittsburgh, PA; 2016. p. 411-416. (In Eng.) DOI: https://doi.org/10.1109/IRI.2016.61
[4] Wen Y., Zhang W., Luo R., Wang J. Learning text representation using recurrent convolutional neural network with highway layers. arXiv:1606.06905 [cs.CL], 2016. Available at: https://arxiv.org/abs/1606.06905 (accessed 06.12.2019). (In Eng.).
[5] Rajasundari T., Subathra P., Kumar P.N. Performance Analysis of Topic Modeling Algorithms for News Articles. Journal of Advanced Research in Dynamical and Control Systems. 2017; 11:175-183. (In Eng.).
[6] Liu P., Qiu X., Huang X. Recurrent neural network for text classification with multi-task learning. arXiv:1605.05101 [cs.CL], 2016. Available at: https://arxiv.org/abs/1605.05101 (accessed 06.12.2019). (In Eng.).
[7] Lai S., Xu L., Liu K., Zhao J. Recurrent convolutional neural networks for text classification. In: Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence (AAAI'15). AAAI Press; 2015. p. 2267-2273. (In Eng.).
[8] Fauzi M.A., Arifin A.Z., Gosaria S.C. Indonesian News Classification Using Naïve Bayes and Two-Phase Feature Selection Model. Indonesian Journal of Electrical Engineering and Computer Science. 2017; 8(3):610-615. (In Eng.) DOI: http://doi.org/10.11591/ijeecs.v8.i3.pp610-615
[9] Bindu K. R., Parameswaran L., Soumya K.V. Performance Evaluation of Topic Modelling Algorithms with an application of Q A Dataset. International Journal of Applied Engineering Research. 2015; 10(73):23-27. (In Eng.).
[10] Jacovi A., Shalom O.S., Goldberg Y. Understanding Convolutional Neural Networks for Text Classification. In: Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP. Association for Computational Linguistics, Brussels, Belgium; 2018. p. 56-65. (In Eng.) DOI: http://doi.org/10.18653/v1/W18-5408
[11] Shankar S., Robertson D., Ioannou Y., Criminisi A., Cipolla R. Refining Architectures of Deep Convolutional Neural Networks. In: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV; 2016. p. 2212-2220. (In Eng.) DOI: http://doi.org/10.1109/CVPR.2016.243
[12] Iandola F.N., Han S., Moskewicz M.W., Ashraf K., Dally W.J., Keutzer K. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size. arXiv:1602.07360v4 [cs.CV], 2016. 13 p. Available at: https://arxiv.org/pdf/1602.7360.pdf (accessed 06.12.2019). (In Eng.).
[13] Teerapittayanon S., McDanel B., Kung H.T. Distributed Deep Neural Networks Over the Cloud, the Edge and End Devices. In: 2017 IEEE 37th International Conference on Distributed Computing Systems (ICDCS), Atlanta, GA; 2017. p. 328-339. (In Eng.) DOI: http://doi.org/10.1109/ICDCS.2017.226
[14] Skansi S. Convolutional Neural Networks. In: Introduction to Deep Learning. Undergraduate Topics in Computer Science. Springer, Cham; 2018. (In Eng.) DOI: https://doi.org/10.1007/978-3-319-73004-2_6
[15] Zhang X., Zhao J., LeCun Ya. Character-level convolutional networks for text classification. In: Proceedings of the 28th International Conference on Neural Information Processing Systems - Volume 1 (NIPS'15). MIT Press, Cambridge, MA, USA; 2015. p. 649-657. (In Eng.).
Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
Редакционная политика журнала основывается на традиционных этических принципах российской научной периодики и строится с учетом этических норм работы редакторов и издателей, закрепленных в Кодексе поведения и руководящих принципах наилучшей практики для редактора журнала (Code of Conduct and Best Practice Guidelines for Journal Editors) и Кодексе поведения для издателя журнала (Code of Conduct for Journal Publishers), разработанных Комитетом по публикационной этике - Committee on Publication Ethics (COPE). В процессе издательской деятельности редколлегия журнала руководствуется международными правилами охраны авторского права, нормами действующего законодательства РФ, международными издательскими стандартами и обязательной ссылке на первоисточник.
Журнал позволяет авторам сохранять авторское право без ограничений. Журнал позволяет авторам сохранить права на публикацию без ограничений.
Издательская политика в области авторского права и архивирования определяются «зеленым цветом» в базе данных SHERPA/RoMEO.
Все статьи распространяются на условиях лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная, которая позволяет другим использовать, распространять, дополнять эту работу с обязательной ссылкой на оригинальную работу и публикацию в этом журналe.