
Создайте attention-слой (используя метод forward() и наследование от nn.Module), который на вход принимает все скрытые состояния (переменная out) и финальное скрытое состояние (переменная h), а возвращает вектор , где:
Интегрируйте разработанный слой внимания во все три архитектуры нейронных сетей (с использованием RNN, LSTM и GRU), при этом входом полносвязного блока для осуществления классификации будет тот самый вектор . Архитектура будет выглядеть примерно так.
