499 код ответа сервера

Ошибки клиента (400 — 499)

Эта группа кодов статуса HTTP означает, что запрос клиента не может быть выполнен — либо запрос ошибочный, либо на подобные запросы настройками сервера наложены ограничения. Ошибки этой группы не связаны со сбоем или перегрузкой сервера (ошибки сервера отражает группа статусов 500 – 599).

400 Bad Request

Запрос не был распознан сервером из-за возможной ошибки синтаксиса. Клиент не должен повторно отправлять этот запрос без модификации.

401 Unauthorized

402 Payment Required

403 Forbidden

Доступ запрещен. Сервер распознал запрос, но в доступе отказано. Отказ не связан с авторизацией, а обусловлен настройками сервера, клиент не должен повторять запрос к запрещенной области. Сервер должен отправить сообщение с объяснением отказа. Если доступ невозможен временно и сообщение о запрете нежелательно, то вместо этого статуса нужно использовать 404.

404 Not Found

405 Method Not Allowed

406 Not Acceptable

В настоящий момент этот ответ реализуется упрощенно — если медиатип ресурса не совпадает ни с одним из списка типов, перечисленных в поле Accept запроса, то в ответ посылается статус 406 и сообщение о несоответствии.

407 Proxy Authentication Required

408 Request Timeout

Клиент не послал запрос в течение того интервала времени, когда сервер его ожидал. Запрос может быть отправлен повторно.

409 Conflict

Запрос не может быть выполнен из-за конфликта с текущим состоянием ресурса. Такой статус применим в тех редких случаях, когда на сервере реализован метод PUT и выполнение PUT-запроса вызывает конфликт с результатом предыдущего запроса.

410 Gone

Запрошенный документ больше не существует. Это состояние следует понимать как постоянное — точно известно, что документ удален с сервера, а не перемещен на какой-либо другой адрес. Клиенту рекомендуется по согласованию с пользователем удалить ссылки на запрошенный URI и больше по нему не обращаться.

411 Length Required

Сервер отказал в доступе по запросу с не определенным полем Content-Length в заголовке. Клиент может повторить запрос, если добавит в заголовок поле Content-Length с указанием длины «тела» запроса. Обычно применимо для POST-запросов.

412 Precondition Failed

Неудачная обработка условного запроса. Одно или более из условий, заданных в заголовке запроса, при попытке интерпретации сервером привело к ошибке.

413 Request Entity Too Large

Сервер отказывает в обработке запроса, поскольку запрошенный объект слишком велик — больше, чем сервер в состоянии обработать. Сервер может закрыть соединение, чтобы помешать клиенту продолжать запрос. Если это состояние является временным, сервер должен включить в заголовок ответа поле Retry-After с указанием, через какое время клиент может попытаться повторить запрос.

414 Request-URI Too Long

415 Unsupported Media Type

Формат объекта запроса не поддерживается запрашиваемым ресурсом для данного метода запроса.

416 Requested Range Not Satisfiable

Сервер должен отправить такой статус, если в заголовке запроса есть поле Range и его значение не укладывается в диапазон допустимых значений для ресурса, при этом поле If-Range в запросе отсутствует. Для байтового диапазона это означает, что указанная в запросе позиция первого байта превышает общую длину запрошенного объекта.

С этим статусом сервер должен отправить в заголовке поле Content-Range с указанием актуальной длины запрошенного объекта.

417 Expectation Failed

Ожидаемая реакция сервера, указанная в поле Expect заголовка запроса, недостижима. Или, в случае прокси-сервера, точно известно, что следующий сервер не способен удовлетворить ожидания клиента.

На текущий момент это полный список возможных откликов на ошибочные запросы, точно определенных в RFC 2616.

Источник

Possible reason for NGINX 499 error codes

I’m getting a lot of 499 NGINX error codes. I see that this is a client side issue. It is not a problem with NGINX or my uWSGI stack. I note the correlation in uWSGI logs when a get a 499.

I’m looking for a more in depth explanation and hoping it is nothing wrong with my NGINX config for uwsgi. I’m taking it on face value. It seems like a client issue.

499 код ответа сервера. onLRD. 499 код ответа сервера фото. 499 код ответа сервера-onLRD. картинка 499 код ответа сервера. картинка onLRD. Эта группа кодов статуса HTTP означает, что запрос клиента не может быть выполнен — либо запрос ошибочный, либо на подобные запросы настройками сервера наложены ограничения. Ошибки этой группы не связаны со сбоем или перегрузкой сервера (ошибки сервера отражает группа статусов 500 – 599).

15 Answers 15

HTTP 499 in Nginx means that the client closed the connection before the server answered the request. In my experience is usually caused by client side timeout. As I know it’s an Nginx specific error code.

In my case, I was impatient and ended up misinterpreting the log.

Elaboration

Here I will assume that the reader knows as little as I did when I started playing around.

My setup was a reverse proxy, the nginx server, and an application server, the uWSGI server behind it. All requests from the client would go to the nginx server, then forwarded to the uWSGI server, and then response was sent the same way back. I think this is how everyone uses nginx/uwsgi and are supposed to use it.

My nginx worked as it should, but something was wrong with the uwsgi server. There are two ways (maybe more) in which the uwsgi server can fail to respond to the nginx server.

1) uWSGI says, «I’m processing, just wait and you will soon get a response». nginx has a certain period of time, that it is willing to wait, fx 20 seconds. After that, it will respond to the client, with a 504 error.

2) uWSGI is dead, or uWSGi dies while nginx is waiting for it. nginx sees that right away and in that case, it returns a 499 error.

I was testing my setup by making requests in the client (browser). In the browser nothing happened, it just kept hanging. After maybe 10 seconds (less than the timeout) I concluded that something was not right (which was true), and closed the uWSGI server from the command line. Then I would go to the uWSGI settings, try something new, and then restart the uWSGI server. The moment I closed the uWSGI server, the nginx server would return a 499 error.

So I kept debugging with the 499 erroe, which means googling for the 499 error. But if I had waited long enough, I would have gotten the 504 error. If I had gotten the 504 error, I would have been able to understand the problem better, and then be able to debug.

So the conclusion is, that the problem was with uWGSI, which kept hanging («Wait a little longer, just a little longer, then I will have an answer for you. «).

How I fixed that problem, I don’t remember. I guess it could be caused by a lot of things.

499 код ответа сервера. 7MAqq. 499 код ответа сервера фото. 499 код ответа сервера-7MAqq. картинка 499 код ответа сервера. картинка 7MAqq. Эта группа кодов статуса HTTP означает, что запрос клиента не может быть выполнен — либо запрос ошибочный, либо на подобные запросы настройками сервера наложены ограничения. Ошибки этой группы не связаны со сбоем или перегрузкой сервера (ошибки сервера отражает группа статусов 500 – 599).

The «client» in «client closed the connection» isn’t necessarily the Web browser!

For haproxy the default values for certain applicable timeouts are some 60 seconds for connecting to upstream and for reading from upstream (Nginx) or downstream (Web browser).

Meaning that if after some 60 seconds the proxy hasn’t connected to the upstream for writing, or if it hasn’t received any data from the downstream (Web browser) or upstream (Nginx) as part of a HTTP request or response, respectively, it will close the corresponding connection, which will be treated as an error by the Nginx, at least, if the latter has been processing the request at the time (taking too long).

Timeouts might happen for busy websites or scripts that need more time for execution. You may need to find a timeout value that will work for you. For example extending it to a larger number, like 180 seconds. That may fix it for you.

Depending on your setup you might see a 504 Gateway Timeout HTTP error in your browser which may indicate that something is wrong with php-fpm. That won’t be the case, however, with 499 errors in your log files.

499 код ответа сервера. YEat6. 499 код ответа сервера фото. 499 код ответа сервера-YEat6. картинка 499 код ответа сервера. картинка YEat6. Эта группа кодов статуса HTTP означает, что запрос клиента не может быть выполнен — либо запрос ошибочный, либо на подобные запросы настройками сервера наложены ограничения. Ошибки этой группы не связаны со сбоем или перегрузкой сервера (ошибки сервера отражает группа статусов 500 – 599).

As you point 499 a connection abortion logged by the nginx. But usually this is produced when your backend server is being too slow, and another proxy timeouts first or the user software aborts the connection. So check if uWSGI is answering fast or not of if there is any load on uWSGI / Database server.

In many cases there are some other proxies between the user and nginx. Some can be in your infrastructure like maybe a CDN, Load Balacer, a Varnish cache etc. Others can be in user side like a caching proxy etc.

I’ll recommend you to set:

This provides a correct chain of timeouts. and you’ll find really whose giving the timeout and return the right response code to the user.

499 код ответа сервера. G3ppl. 499 код ответа сервера фото. 499 код ответа сервера-G3ppl. картинка 499 код ответа сервера. картинка G3ppl. Эта группа кодов статуса HTTP означает, что запрос клиента не может быть выполнен — либо запрос ошибочный, либо на подобные запросы настройками сервера наложены ограничения. Ошибки этой группы не связаны со сбоем или перегрузкой сервера (ошибки сервера отражает группа статусов 500 – 599).

Turns out 499’s really does mean «client interrupted connection.»

I had a client «read timeout» setting of 60s (and nginx also has a default proxy_read_timeout of 60s). So what was happening in my case is that nginx would error.log an upstream timed out (110: Connection timed out) while reading upstream and then nginx retries «the next proxy server in the backend server group you configured.» That’s if you have more than one.

Then it tries the next and next till (by default) it has exhausted all of them. As each one times out, it removes them from the list of «live» backend servers, as well. After all are exhausted, it returns a 504 gateway timeout.

So in my case nginx marked the server as «unavailable», re-tried it on the next server, then my client’s 60s timeout (immediately) occurred, so I’d see a upstream timed out (110: Connection timed out) while reading upstream log, immediately followed by a 499 log. But it was just timing coincidence.

If all servers in the group are marked as currently unavailable, then it returns a 502 Bad Gateway. for 10s as well. See here max_fails and fail_timeout. Inn the logs it will say no live upstreams while connecting to upstream.

If you only have one proxy backend in your server group, it just try’s the one server, and returns a 504 Gateway Time-out and doesn’t remove the single server from the list of «live» servers, if proxy_read_timeout is surpassed. See here «If there is only a single server in a group, max_fails, fail_timeout and slow_start parameters are ignored, and such a server will never be considered unavailable.»

The really tricky part is that if you specify proxy_pass to «localhost» and your box happens to also have ipv6 and ipv4 «versions of location» on it at the same time (most boxes do by default), it will count as if you had a «list» of multiple servers in your server group, which means you can get into the situation above of having it return «502 for 10s» even though you list only one server. See here «If a domain name resolves to several addresses, all of them will be used in a round-robin fashion.» One workaround is to declare it as proxy_pass http://127.0.0.1:5001; (its ipv4 address) to avoid it being both ipv6 and ipv4. Then it counts as «only a single server» behavior.

There’s a few different settings you can tweak to make this «less» of a problem. Like increasing timeouts or making it so it doesn’t mark servers as «disabled» when they timeout. or fixing the list so it’s only size 1, see above 🙂

Источник

Возможная причина кодов ошибок NGINX 499

Я получаю много кодов ошибок 499 NGINX. Я вижу, что это проблема на стороне клиента. Это не проблема NGINX или моего стека uWSGI. Я отмечаю корреляцию в журналах uWSGI при получении 499.

Я ищу более подробное объяснение и надеюсь, что с моей конфигурацией NGINX для uwsgi все в порядке. Я принимаю это за чистую монету. Похоже, проблема клиента.

В моем случае я был нетерпеливым и в итоге неправильно истолковал журнал.

разработка

Здесь я предполагаю, что читатель знает так же мало, как и я, когда начал экспериментировать.

Моя установка была обратным прокси, сервером nginx и сервером приложений, сервером uWSGI за ним. Все запросы от клиента будут поступать на сервер nginx, затем перенаправляются на сервер uWSGI, а затем ответ отправляется таким же образом обратно. Я думаю, что именно так все используют nginx / uwsgi и должны его использовать.

Мой nginx работал как надо, но что-то не так с сервером uwsgi. Есть два способа (а может и больше), при которых сервер uwsgi может не отвечать серверу nginx.

1) uWSGI говорит: «Я обрабатываю, просто подождите, и вы скоро получите ответ». У nginx есть определенный период времени, в течение которого он готов ждать, fx 20 секунд. После этого он ответит клиенту с ошибкой 504.

2) uWSGI мертв, или uWSGi умирает, пока nginx его ждет. nginx видит это сразу и в этом случае возвращает ошибку 499.

Я тестировал свою установку, делая запросы в клиенте (браузере). В браузере ничего не происходило, просто все зависало. Примерно через 10 секунд (меньше таймаута) я пришел к выводу, что что-то не так (что было правдой), и закрыл сервер uWSGI из командной строки. Затем я бы пошел в настройки uWSGI, попробовал что-то новое, а затем перезапустил сервер uWSGI. В тот момент, когда я закрою сервер uWSGI, сервер nginx вернет ошибку 499.

Поэтому я продолжил отладку с ошибкой 499, что означает поиск ошибки 499 в Google. Но если бы я подождал достаточно долго, то получил бы ошибку 504. Если бы я получил ошибку 504, я смог бы лучше понять проблему, а затем отладить.

Как я решил эту проблему, не помню. Думаю, это могло быть вызвано множеством причин.

Вы можете найти 499 ошибок в файле журнала, если у вас есть LB (балансировщик нагрузки) перед вашим веб-сервером (nginx) либо AWS, либо haproxy (custom). При этом LB будет действовать как клиент для nginx.

Если вы запустите значения по умолчанию haproxy для:

Это будет означать, что время ожидания LB истечет через 60000 мс, если от nginx не будет ответа. Тайм-ауты могут происходить для загруженных веб-сайтов или сценариев, которым требуется больше времени для выполнения. Вам нужно будет найти тайм-аут, который подойдет вам. Например, расширите его до:

И вы, вероятно, будете настроены.

В зависимости от ваших настроек вы можете увидеть ошибку тайм-аута шлюза 504 в вашем браузере, которая указывает на то, что что-то не так с php-fpm, но этого не будет с ошибками 499 в ваших файлах журнала.

Во многих случаях между пользователем и nginx есть другие прокси. Некоторые из них могут быть в вашей инфраструктуре, например, CDN, Load Balacer, Varnish cache и т. Д. Другие могут быть на стороне пользователя, например, кэширующий прокси и т. Д.

Я рекомендую вам установить:

Это обеспечивает правильную цепочку тайм-аутов. и вы действительно обнаружите, кто дает тайм-аут и возвращает пользователю правильный код ответа.

В моем случае я получил 499, когда клиентский API закрыл соединение до того, как получил какой-либо ответ. Буквально отправил POST и сразу закрыл соединение. Это решается опцией:

Оказывается, 499 действительно означает «соединение прервано клиентом».

У меня был тайм-аут чтения клиента 60 секунд (и nginx также имеет значение proxy_read_timeout по умолчанию 60 секунд). Итак, в моем случае происходило то, что nginx регистрировал ошибку, upstream timed out (110: Connection timed out) while reading upstream а затем nginx повторял попытку «следующего прокси-сервера в группе внутренних серверов, которую вы настроили». Это если у вас их больше одного.

Затем он пробует следующий и следующий, пока (по умолчанию ) не исчерпает их всех. По истечении каждого времени он также удаляет их из списка «живых» внутренних серверов. После того, как все исчерпаны, он возвращает 504 gateway timeout.

Итак, в моем случае nginx пометил сервер как «недоступный», повторно попробовал его на следующем сервере, затем истекло время 60s ожидания моего клиента (немедленно), поэтому я увидел upstream timed out (110: Connection timed out) while reading upstream журнал, за которым сразу же следует журнал 499. Но это было совпадение во времени.

Если все серверы в группе отмечены как недоступные в данный момент, то также возвращается значение 502 Bad Gateway. 10 с. Смотрите здесь max_fails и fail_timeout. В журналах будет сказано no live upstreams while connecting to upstream.

Если у вас есть только один прокси-сервер в вашей группе серверов, он просто пробует использовать один сервер и возвращает 504 Gateway Time-out и не удаляет отдельный сервер из списка «живых» серверов, если proxy_read_timeout он превзойден. См. Здесь «Если в группе только один сервер, параметры max_fails, fail_timeout и slow_start игнорируются, и такой сервер никогда не будет считаться недоступным».

Источник

Коды ответа HTTP

Код ответа (состояния) HTTP показывает, был ли успешно выполнен определённый HTTP запрос. Коды сгруппированы в 5 классов:

Если вы получили код ответа (состояния), которого нет в данном списке, в таком случае он является не стандартизированным кодом ответа (состояния), вероятней всего он кастомный сервера.

Следующая таблица содержит список всех кодов и их значения:

Этот ответ отсылается, когда веб сервер после выполнения server-driven content negotiation, не нашёл контента, отвечающего критериям, полученным из user agent.

Только HTTP/1.1407Proxy Authentication RequiredЭтот код ответа аналогичен коду 401, только аутентификация требуется для прокси сервера.Только HTTP/1.1408Request TimeoutОтвет с таким кодом может прийти, даже без предшествующего запроса. Он означает, что сервер хотел бы отключить это неиспользуемое соединение. Этот метод используется все чаще с тех пор, как некоторые браузеры, вроде Chrome и IE9, стали использовать HTTP механизмы предварительного соединения для ускорения сёрфинга (смотрите баг 634278, будущей реализации этого механизма в Firefox). Также учитывайте, что некоторые серверы прерывают соединения не отправляя подобных сообщений.Только HTTP/1.1409Conflict

Этот ответ отсылается, когда запрос конфликтует с текущим состоянием сервера.

Этот ответ отсылается, когда запрашиваемый контент удалён с сервера.

Только HTTP/1.1412Precondition FailedКлиент указал в своих заголовках условия, которые сервер не может выполнитьТолько HTTP/1.1413Request Entity Too Large

Размер запроса превышает лимит, объявленный сервером. Сервер может закрыть соединение, вернув заголовок Retry-After

Источник

NginX выдает ошибку HTTP 499 через 60 секунд, несмотря на конфигурацию. (PHP и AWS)

В конце прошлой недели я заметил проблему на одном из моих средних экземпляров AWS, где Nginx всегда возвращает ответ HTTP 499, если запрос занимает более 60 секунд. Запрошенная страница представляет собой скрипт PHP

Я провел несколько дней, пытаясь найти ответы, и попробовал все, что я могу найти в Интернете, включая несколько записей здесь, в Stack Overflow, ничего не работает.

Я пробовал изменять настройки PHP, настройки PHP-FPM и настройки Nginx. Вы можете увидеть вопрос, который я поднял на форумах NginX в пятницу ( http://forum.nginx.org/read.php?9,237692 ), хотя он не получил ответа, поэтому я надеюсь, что я смогу найти ответьте здесь, прежде чем я вынужден вернуться к Apache, который, как я знаю, работает.

Это не та же проблема, что и ошибки HTTP 500 в других записях.

Я смог реплицировать проблему с помощью нового экземпляра micro AWS NginX с использованием PHP 5.4.11.

Чтобы помочь любому, кто хочет увидеть проблему в действии, я собираюсь провести вас через настройку, которую я запускал для последнего тестового сервера Micro.

Вам нужно будет запустить новый экземпляр AWS Micro (поэтому он бесплатный) с помощью AMI ami-c1aaabb5

Эта запись PasteBin имеет полную настройку для запуска, чтобы отразить мою тестовую среду. Вам просто нужно изменить example.com в конфигурации NginX в конце

Как только вы настроитесь, вам просто нужно создать образец файла PHP, который я тестирую, с которым

Теперь, когда вы можете увидеть таймаут, я рассмотрю некоторые изменения конфигурации, которые я сделал как для PHP, так и для NginX, чтобы попытаться обойти это. Для PHP я создам несколько файлов конфигурации, чтобы их можно было легко отключить

Обновите PHP FPM Config, чтобы включить внешние файлы конфигурации

Создайте новую конфигурацию PHP-FPM для переопределения таймаута запроса

Измените некоторые глобальные настройки, чтобы обеспечить интервал аварийного перезапуска 2 минуты

Затем мы изменим некоторые параметры PHP.INI, снова используя отдельные файлы

Как вы можете видеть, это увеличивает тайм-аут сокета до 3 минут и помогает регистрировать ошибки.

Наконец, я отредактирую некоторые параметры NginX, чтобы увеличить тайм-аут той стороны

Сначала я редактирую файл /etc/nginx/nginx.conf и добавляю его в директиву http fastcgi_read_timeout 300;

Затем я редактирую файл / etc / nginx / sites-enabled / example, который мы создали ранее (см. Запись pastebin), и добавьте следующие параметры в директиву сервера

Наконец, я добавляю следующее в раздел

Прежде чем повторять сценарий, запустите nginx и php-fpm, чтобы убедиться, что новые настройки были подняты. Затем я пытаюсь получить доступ к странице и все еще получаю запись HTTP / 1.1 499 в файле NginX example.error.log.

Итак, где я иду не так? Это просто работает на apache, когда я устанавливаю максимальное время выполнения PHP до 2 минут.

Обновление 1

Проведя еще один тест, чтобы показать, что проблема заключается не в том, что клиент умирает, я модифицировал тестовый файл

Если я запустил скрипт с веб-страницы, я увижу, что содержимое файла будет установлено в первую строку. Через 60 секунд в журнале NginX появляется ошибка. Через 10 секунд содержимое файла изменяется на вторую строку, доказывая, что PHP завершает процесс.

Обновление 2

Установка fastcgi_ignore_client_abort; изменяет ответ от HTTP 499 на HTTP 200, хотя ничего не возвращается конечному клиенту.

Обновление 3

Установив Apache и PHP (5.3.10) на поле прямо (используя apt), а затем увеличивая время выполнения, проблема также возникает и на Apache. Симптомы такие же, как и у NginX, ответ HTTP200, но фактическое время соединения с клиентом перед раздачей.

Я также начал замечать в журналах NginX, что если я тестирую с помощью Firefox, он делает двойной запрос (например, этот PHP-скрипт выполняется дважды, когда он длится более 60 секунд ). Хотя, похоже, это клиент, запрашивающий при неудачном сценарии

Причиной проблемы является эластичная балансировка нагрузки на AWS. Они, по умолчанию, тайм-аут после 60 секунд бездействия, что и вызывало проблему.

Так что это не NginX, PHP-FPM или PHP, а балансировка нагрузки.

Чтобы исправить это, просто зайдите на вкладку «Описание» ELB, прокрутите страницу вниз и нажмите ссылку «(Изменить)» рядом со значением, обозначающим «Idle Timeout: 60 секунд»,

Я думал, что оставлю свои два цента. Сначала проблема не связана с php (все еще может быть связано с php, php всегда меня удивляет: P). Это уж точно. в основном это вызвано сервером, проксированным для себя, в частности, имена имен хостов / псевдонимов, в вашем случае это может быть балансировка нагрузки, запрашивающая nginx, и nginx обращается к балансировщику нагрузки и продолжает идти таким образом.

Я столкнулся с аналогичной проблемой с nginx в качестве балансировки нагрузки и apache в качестве веб-сервера / прокси-сервера

Вам нужно найти, в каком месте проблемы жить. Я не знаю точного ответа, но просто попробуем его найти.

У нас есть 3 элемента: nginx, php-fpm, php. Как вы сказали, одинаковые настройки php под apache в порядке. Разве это не такая же настройка? Вы пытались apache вместо nginx на той же ОС / хосте / и т. Д.?

Если мы увидим, что php не подозревает, у нас есть два подозреваемых: nginx & php-fpm.

Чтобы исключить nginx: попробуйте настроить ту же «систему» ​​на рубине. См. https://github.com/garex/puppet-module-nginx, чтобы получить представление об установке простейшей рубиновой установки. Или используйте google (возможно, это будет еще лучше).

Мой главный подозреваемый здесь – php-fpm.

Попробуйте сыграть с этими настройками:

На самом деле я столкнулся с той же проблемой на одном сервере, и я понял, что после изменений конфигурации nginx я не перезапустил сервер nginx, поэтому с каждым ударом nginx-url я получал ответ 499 http. После перезапуска nginx он начал нормально работать с ответами HTTP 200.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *