Компанията Anthropic въведе нова функция в чат-бота си Claude AI, която позволява прекъсване на диалози, оценени като „вредни или обидни“. Мярката ще се прилага само в крайни случаи и вече е налична в моделите Opus 4 и 4.1, като целта е да се предпазят както потребителите, така и самият модел.
След прекратяване на разговора, потребителят не може да продължи същия чат, но има възможност да започне нов. Claude е обучен да отказва създаването на съдържание, свързано с насилие, тероризъм или сексуални материали с непълнолетни, но не прекъсва диалози, ако има индикации за самонараняване. В такива случаи ботът се свързва с Throughline – услуга за кризисна онлайн подкрепа.
Миналата седмица Anthropic актуализира и политиката за употреба на Claude, като забрани използването му за разработка на оръжия, зловреден софтуер или експлоатация на уязвимости, подчертавайки, че безопасността и доброто на потребителите са приоритет.






