Emotion Classification with Natural Language Processing (Comparing BERT and Bi-Directional LSTM models for use with Twitter conversations)
Vi har skapat en modell som känner igen vilken underliggande känsla som finns i en konversation på Twitter. För att utvärdera hur bra vår modell är har vi jämfört med BERT, en större modell skapad av Google. Det vetenskapliga fält som handlar om hur datorer behandlar text heter natural language process- ing (NLP). Ett vanligt problem inom NLP är hur datorer ska förstå olika mänskliga känslor. I våWe have constructed a novel neural network architecture called CWE-LSTM (concatenated word-emoji bidirectional long short-term memory) for classify- ing emotions in Twitter conversations. The architecture is based on a combina- tion of word and emoji embeddings with domain specificity in Twitter data. Its performance is compared to a current state of the art natural language process- ing model fro