В версии 3.5 Claude Sonnet от Anthropic появилась функция под названием «Артефакты». По сути, это окно интерактивного предварительного просмотра, примыкающее к окну чата и обеспечивающее рабочую среду для совместной работы.
Что это значит?
Вы больше не ограничены простыми действиями. генерация текста туда и обратно. Вы можете прикреплять файлы и изображения, чтобы Клод мог их интерпретировать и экстраполировать. Вы также можете запросить изображения SVG (масштабируемая векторная графика, в основном изображения для Интернета), которые можно поместить непосредственно в код или превратить в слайд-шоу или презентацию для вашего босса в понедельник утром. Вы даже можете создавать игровые игры, чтобы развлечь себя или своих детей в дождливый день. Ваше воображение — предел.
Claude 3.5 Sonnet для пробуждения творчества
Я попробовал это сам, и за 10 минут, не написав ни единой строчки кода, у меня была игра с прыжками с вертикальной прокруткой. Главный герой был похож на Небесного рыцаря из игры Atari 1982 года Just., радостно прыгая с ветки на ветку вверх. Две минуты спустя я взломал код, пытаясь добавить таймер, и у меня закончились бесплатные сообщения Клоду, и мне пришлось заплатить за подписку.
Игры и код — лишь малая часть того, что делает последний чат с искусственным интеллектом от Anthropic. релиз способен. Этот выпуск умнее и быстрее своего предшественника Claude Opus 3.0. По данным Anthropic, он умнее и быстрее почти во всем, чем GPT-4o, Gemini 1.5 Pro и Llama 3 от Meta. Он даже в два раза быстрее, чем Claude Opus 3.0.
Anthropic Claude Sonnet 3.5 сравнительные данныеAnthropic
Он также сделан для более дешевой работы. Sonnet стоит 3 доллара США за миллион входных токенов и 15 долларов США за миллион выходных токенов с контекстным окном в 200 000 токенов. Для справки, GPT-4o стоит 5 долларов за миллион входных токенов и 15 долларов за миллион выходных.
Всего произведение Шекспира составляет около 900 000 слов, что в сумме составляет около 1,2 миллиона токенов.
Что такое токен?
Токен — это часть измерения данных для больших языковых моделей. Это может быть отдельный символ или даже целое слово, например буква «X» или слово «the» — хотя длина токена обычно составляет около четырех символов, в зависимости от LLM. «Окно контекста токена» — это количество слов, которое LLM может запомнить из ваших предыдущих взаимодействий, чтобы лучше сформулировать следующий ответ. Двести тысяч токенов составляют около 150 000 слов или 500 страниц текста.