Вход | Регистрация
 

Новый механизм отладки роняет сервер 1С

Новый механизм отладки роняет сервер 1С
Я
   PR
 
19.12.20 - 11:20
2. Сталкивался, решение не знаю50% (1)
3. Не сталкивался50% (1)
1. Сталкивался, решение такое...0% (0)
Всего мнений: 2

Новый механизм отладки https://wonderland.v8.1c.ru/blog/novyy-mekhanizm-otladki/ на 8.3.18.1208 роняет сервер 1С
Ну как роняет, создает кучу фоновых заданий
В результате чего запускаешь пользовательский сеанс и все висит годами
А пишешь в реестр просто "-debug" вместо "-debug -http" и все хорошо

Сталкивался кто?
   PR
 
1 - 19.12.20 - 11:32
Блин, по ходу сам нашел, странно, что раньше не попалось на глаза
https://partners.v8.1c.ru/forum/topic/1501544 и https://its.1c.ru/db/v837doc#bookmark:cs:TI000000118
По ходу причина в том, что надо писать не "-debug -http", а "/debug -http"
   PR
 
2 - 19.12.20 - 11:33
А, не, рано порадовался, сервер чуть призадумался и... снова наколотил вагон регзаданий
   Garykom
 
3 - 19.12.20 - 11:37
апач обновили до последнего?
если ie то хз
   Garykom
 
4 - 19.12.20 - 11:38
(3)+ *iis то хз
   PR
 
5 - 19.12.20 - 11:41
(3) Апач 2.4.43.0
А это играет значение?
   PR
 
6 - 19.12.20 - 11:41
+(5) Я же, если Апач тормозну, исключу его из уравнения?
   Многолетний Апельсин
 
7 - 19.12.20 - 11:45
Сталкивался с подобным, платформа 8.3.17.1851 + настроен апач для доступа через веб-клиент и мобильного приложения.
Если запустить "тяжелую" задачу типа перепроведения за год - сервер падает, также падает динамическое обновление (РИБа нет, пожалуйста не кидайте в меня камнями) примерно в 3 из 4 случаев.
Если включить отладку по TCP - обновление работает, если выключить отладку и остановить апач - перепроведение не падает.

Апач версии как у ТС - Apache/2.4.43

2. Сталкивался, решение не знаю
   PR
 
8 - 19.12.20 - 11:48
(7) У меня все печальнее
Перегрузил сервер, прибил все сеансы
Запускаю 1С, наблюдаю сразу же рьяное желание сервера запустить окулиард фоновых заданий, причем не этой базы, а всех имеющихся по несколько штук (штук по 10)
То есть примерно так, запускаю одну базу, а мне сразу на 20 имеющихся баз 200 регзаданий и все падает в вечность
   PR
 
9 - 19.12.20 - 11:49
+(8) Не уверен, что причина в запуске моей базы, возможно, подожди я чуть дольше, весь этот зоопарк запустится и без запуска моей базы
   palsergeich
 
10 - 19.12.20 - 16:29
(0) Это баг, очередной непротестированный кусок говна в продуктиве.
У меня при начале сеанса отладки через пару минут работы служба отладки съедает одно ядро процессора и валистся, а потом начинает валится РПХОСТ
Вроде как штука уже известная там, ждем когда поправят
   israel
 
11 - 19.12.20 - 16:42
"новый механизм", которому уже 6й год пошёл, лол
   HeKrendel
 
12 - 19.12.20 - 17:05
Идея закончилась?
   PR
 
13 - 19.12.20 - 17:16
(10) Так в 8.3.17 работает, ничего не плодится
   PR
 
14 - 19.12.20 - 17:17
(11) И че?
Как его называть?
Старый, но не тот, который древний, а который все-таки чуть посвежее?
   PR
 
15 - 19.12.20 - 17:18
(12) Я сейчас просто debug в реестре написал до лучших времен, пока не разберусь, в чем дело
   GreenLab
 
16 - 19.12.20 - 17:18
Аналогично с 8.3.18.1208. Откатился на 8.3.17.1851, пока нормально все
   Cyberhawk
 
17 - 19.12.20 - 17:35
(14) Сегодня он новый, а завтра уже старый. Согласен с (11).
Эти механизмы отладки называют "тср-отладка" и "хттп-отладка".
   palsergeich
 
18 - 19.12.20 - 18:49
(11) Не по ходу они его доработали, но случайно отвалилось.
   TormozIT
 
19 - 19.12.20 - 22:16
Еще в августе им отправил этот баг. Всех он уже замучал.
Оказалось что только месяц назад они его воспроизвести и присвоили статус "Критично".
Пока не сумели исправить, но уверяют что идет активная работа над ним.
https://partners.v8.1c.ru/forum/t/1948576/m/1948577
https://bugboard.v8.1c.ru/error/000097225
   PR
 
20 - 19.12.20 - 22:29
(19) О, понятно
Ну и значит нахрен пока такую отладку, пусть пока tcp будет
   Garykom
 
21 - 19.12.20 - 22:29
(20) под мобильным как?
   PR
 
22 - 19.12.20 - 22:32
(21) Да никак, я же про свой сервер
А на рабочих все просто, там 18не используем
   whitedi
 
23 - 20.12.20 - 01:40
ошибку подтверждаю для http-отладки. У меня ребята по vpn ходят - tcp-отладка не работает в этом случае - пока сидят без серверной отладки. Ждем.
   Garykom
 
24 - 20.12.20 - 01:49
Ошибка только под вин или под лин тоже?
   whitedi
 
25 - 20.12.20 - 02:17
в моем случае вин. Симптомы: мин 5 пускает в 1С, потом сеансы тупо зависают при входе, как фоновые так и тонкого клиента, кмк любые. Перезагрузка сервера помогает снова мин на 5.
   TormozIT
 
26 - 20.12.20 - 17:28
Для лечения достаточно убить процесс dbgs.exe
   TormozIT
 
27 - 14.01.21 - 18:15
На партнерском форуме представитель 1С сообщил, что этот баг 8.3.18 исправили в 8.3.18.1289  
Я пока не проверял
   WED
 
28 - 19.01.21 - 15:37
(27) 8.3.18.1289 - сервер успешно виснет в произвольный момент если служба была запущена с -http.
С -debug работает стабильно.
   mikecool
 
29 - 19.01.21 - 15:56
(1) я же тебе уже ранее об этом писал, что надо /debug
   mikecool
 
30 - 19.01.21 - 15:58
1С:Предприятие 8.3 (8.3.17.1386) - на проде установили отладку по хттп, полет нормальный, проблем сабжа не замечено
 
 
   Жан Пердежон
 
31 - 19.01.21 - 16:02
(14) шестой год как не новый
- отладкой по HTTP его все называют

3. Не сталкивался
   TormozIT
 
32 - 19.01.21 - 23:08
(27) Проверил в течение 5 суток. Сервер http отладки у меня виснуть перестал после перехода на 8.3.18.1289.
   zak555
 
33 - 19.01.21 - 23:33
(20) на едт ещё не перешёл?
   PR
 
34 - 19.01.21 - 23:39
(33) Полностью нет, конечно
И никогда не переключусь, думаю, уж в ближайшие годы точно
Ты в курсе, что есть некоторые вещи, которые можно только в конфигураторе делать?
   Cyberhawk
 
35 - 20.01.21 - 17:45
(29) Брехня
   PR
 
36 - 20.01.21 - 17:47
(29) А до (2) ты уже дочитал?


Список тем форума
 
ВНИМАНИЕ! Если вы потеряли окно ввода сообщения, нажмите Ctrl-F5 или Ctrl-R или кнопку "Обновить" в браузере.
Тема не обновлялась длительное время, и была помечена как архивная. Добавление сообщений невозможно.
Но вы можете создать новую ветку и вам обязательно ответят!
Каждый час на Волшебном форуме бывает более 2000 человек.