Грей
👤 SpeakerAppearances Over Time
Podcast Appearances
Совершенно верно. Поэтому пользуйтесь этим в интерфейсе чата GPT, где у вас, правда, другие лимиты. Если в API у вас лимит 20 запросов в минуту, по-моему, то здесь у вас на старшую модель 30 запросов, а на младшую 50 в неделю. В неделю, да. Вот.
Совершенно верно. Поэтому пользуйтесь этим в интерфейсе чата GPT, где у вас, правда, другие лимиты. Если в API у вас лимит 20 запросов в минуту, по-моему, то здесь у вас на старшую модель 30 запросов, а на младшую 50 в неделю. В неделю, да. Вот.
Я думаю, правда, они сегодня, по-моему, сегодня утром написали, что типа, ну мы посмотрели, что вы все игрались и уперлись в лимиты быстро, вот мы вам сейчас их сбросим, набирайте заново.
Я думаю, правда, они сегодня, по-моему, сегодня утром написали, что типа, ну мы посмотрели, что вы все игрались и уперлись в лимиты быстро, вот мы вам сейчас их сбросим, набирайте заново.
У меня есть одна задачка, на которой я, так сказать, тестирую. Потому что задачка, как ни странно, почему-то не очень-то реальная для этого. Это в блоге построить список месяцев с количеством записей по ним. Знаешь, архив по месяцам. Вот. Ни предыдущие, ну, ни GPT-4O, ни Cloud с этим, в принципе, не справляются.
У меня есть одна задачка, на которой я, так сказать, тестирую. Потому что задачка, как ни странно, почему-то не очень-то реальная для этого. Это в блоге построить список месяцев с количеством записей по ним. Знаешь, архив по месяцам. Вот. Ни предыдущие, ну, ни GPT-4O, ни Cloud с этим, в принципе, не справляются.
Там получается, что они сам движок знают, так сказать, условно, и поэтому, когда они начинают погружаться, вылазят какие-то несоответствия. В общем, оно так не выводится, сяк не выводится.
Там получается, что они сам движок знают, так сказать, условно, и поэтому, когда они начинают погружаться, вылазят какие-то несоответствия. В общем, оно так не выводится, сяк не выводится.
Этот прямо вот мне сейчас написал прямо так красиво это, тут же, правда, придумал там несуществующий оператор, на чем оно сломалось, а следующие итерации он там прямо предложил и так далее, а вот таите ответ после там очередной ошибки. Он мне сказал, ну, давайте поймем проблему. Причем длиннющие ответы. Я не знаю, обратил внимание или нет. Длиннющие ответы. Дальше тут есть вот такие вот сценарии.
Этот прямо вот мне сейчас написал прямо так красиво это, тут же, правда, придумал там несуществующий оператор, на чем оно сломалось, а следующие итерации он там прямо предложил и так далее, а вот таите ответ после там очередной ошибки. Он мне сказал, ну, давайте поймем проблему. Причем длиннющие ответы. Я не знаю, обратил внимание или нет. Длиннющие ответы. Дальше тут есть вот такие вот сценарии.
Возможные. А вот здесь можно так отладить. А вообще можно альтернативно сделать. Попробуйте вот так. И дальше идет три строчки кода. Ну вот, придется попробовать вот так.
Возможные. А вот здесь можно так отладить. А вообще можно альтернативно сделать. Попробуйте вот так. И дальше идет три строчки кода. Ну вот, придется попробовать вот так.
Я думаю, что там проблема с не очень высоким количеством информации, которая с этими форвардами.
Я думаю, что там проблема с не очень высоким количеством информации, которая с этими форвардами.
Она же много раз работает внутри, поэтому она и дороже, кстати говоря. Она в итоге получается, по-моему, за запрос чуть ли не... Как GPT-4, когда самая распространенная была GPT-3,5. Полтора года назад. Вот примерно столько она стоит, кажется.
Она же много раз работает внутри, поэтому она и дороже, кстати говоря. Она в итоге получается, по-моему, за запрос чуть ли не... Как GPT-4, когда самая распространенная была GPT-3,5. Полтора года назад. Вот примерно столько она стоит, кажется.
Не считая того факта, что она считает в токены все то, что она себе внутри подумает. Но при этом, кстати говоря, у нее, к сожалению, до сих пор 128К контекст.
Не считая того факта, что она считает в токены все то, что она себе внутри подумает. Но при этом, кстати говоря, у нее, к сожалению, до сих пор 128К контекст.