--- library_name: transformers license: cc-by-nc-nd-3.0 language: - ru base_model: - cointegrated/rubert-tiny2 --- # ruAntiToxic_v1 NeuroSpaceX/ruAntiToxic_v1 — модель для классификации русского текста на токсичный и нетоксичный. ## Установка ```bash pip install transformers torch ``` ## Использование ```python from transformers import AutoTokenizer, AutoModelForSequenceClassification import torch tokenizer = AutoTokenizer.from_pretrained("NeuroSpaceX/ruAntiToxic_v1") model = AutoModelForSequenceClassification.from_pretrained("NeuroSpaceX/ruAntiToxic_v1") text = "Ваш тестовый текст" inputs = tokenizer(text, return_tensors="pt", padding=True, truncation=True) logits = model(**inputs).logits.squeeze() score = torch.sigmoid(logits).item() label = "токсичный" if score > 0.5 else "нетоксичный" print(label, score) ```