0 Пользователей и 1 Гость просматривают эту тему.
не получается, пробывал разные варианты,без толку.
А на чем, на каком этапе ты спотыкаешься? Диагностическая карта есть? В том же РГС что не проходит проверку по базам выделяется.
Если получится просто с 2141 сделать, то делай так и не парься.
ты же хотел онлайн делатьС моей машиной в онлайне возникает только одна проблема, нет москвича 214145 в их списке предлагаемых авто 🤦♂️
С кем-то путаешь, я надумал страховку делать только вчера , а про онлайн даже не думал
В моём случае неправильно вбит номер птс((( и никак.
И еще когда типа автозаполнение, указываешь номер старого полиса и автоматом все параметры заполняются, можно увидеть в чем ошибка.
Напарник говорит, что в РГС интерфейс сайта раз в две недели меняется. Специально мутят, цуки подлые.
Всего за день пользователи научили чат-бота Microsoft расизму23 марта 2016 года компания Microsoft запустила в Twitter аккаунт чат-бота Tay. Предполагалось, что искусственный интеллект будет общаться с молодыми людьми 18-24 лет на «их языке» и обучаться в процессе общения. К сожалению, всё сразу пошло не так, как планировалось. Вскоре бот повторял за пользователями, что Джордж Буш устроил теракты 9/11, а Гитлер всяко лучше Барака Обамы.Специалисты Microsoft полагали, что бот станет умнее, если будет общаться с большим количеством людей. Эксперимент с аккаунтом в Twitter в компании назвали скорее социальным и культурологическим, чем технологическим. Специалисты хотели лучше изучить процесс человеческих коммуникаций, понять, как люди общаются друг с другом, и научить этому машину через «обыкновенные и забавные диалоги с людьми».Увы, на практике авторы проекта увидели очень мало «забавного». Вскоре после запуска Tay пользователи принялись умышленно писать боту сообщения о расизме, сексизме, о том, что Гитлер был прав, а Дональд Трамп замечательный и прекрасный. Tay, в свою очередь, был создан, чтобы запоминать и повторять высказывания пользователей. Вскоре ИИ начал возвращать расистские и оскорбительные сентенции, отвечая пользователям.Хотя на официальном сайте сказано, что бот использует «релевантные открытые данные», которые при этом «моделируются, очищаются и фильтруются»командой модераторов, не похоже, чтобы кто-то фильтровал ответы ИИ в Twitter. За сутки чат-бот успел написать более 96 000 твитов и научился самым разным вещам. К примеру, в течение 15 часов он отзывался о феминизме как о «раковой опухоли» и «культе», но вместе с тем мог ответить, что «обожает феминизм».Много проблем вызвала и функция «repeat after me» («повторяй за мной»): после этой команды Tay повторял за пользователем любую фразу. Самые неприятные высказывания робота, в основном, результат работы этой команды.В итоге специалисты Microsoft были вынуждены отключить Tay, спустя сутки после старта эксперимента, когда робот принялся писать сообщения неонацистского содержания. К сожалению, многие твиты были удалены, и всё, что осталось – скриншоты разговоров. Изданию Business Insider представители Microsoft рассказали, что собираются подкорректировать работу Tay, а пока ИИ отправили «спать».
Посрать на мелкософт. С работой, чую, полная лажа будет в этом сезоне. На перекрас машины наскрести бы...
https://avto-emali.ru/kraski/cat296/prod_7963-detail.html - 300р или вобще https://avto-emali.ru/kraski/cat307/prod_7989-detail.html - 237р Так что думаю наскребёшь