Docker Port Konflikt - Port is already allocated - wie löschen?

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.468
Punkte für Reaktionen
356
Punkte
103
echo "net.ipv4.ip_forward=1" >> /etc/sysctl.conf
sysctl -w net.ipv4.ip_forward=1 >> /dev/null 2>&1

Ich habe noch keine Kiste mit Docker gesehen, auf der das nicht schon aktiviert wäre. Einfach überprüfbar mit:
Code:
sysctl -n net.ipv4.ip_forward
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
und jetzt der Brüller: Ist gefixt im Kernel 4.14.114. Gut das ich 4.4.59 habe. Grrr Synology!
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.468
Punkte für Reaktionen
356
Punkte
103
Zuletzt bearbeitet:

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
Ich habe das Problem in den letzten 6 Jahren mit Docker weder privat mit Ubuntu, noch im Job mit Ubuntu und RHEL gehabt. Auch mit Kubernetes ist mir das bisher nicht untergekommen. Vielleicht hilft es ja wirklich ipv6 zu deaktiveren.

Mach doch ein Issue auf und fordere den Backport von diesen Fix ein.

ipv6 war schon deaktiviert. Synology Ticket ist offen.
Das Du das nicht hattest, mag evtl. mit Deinem Nutzerverhalten zu tun haben. Wer viel Container löscht und erstellt hat das öfters (zu lesen), da dann beim Netzwerkstack zuwenig Zeit bereitgestellt wird, damit alle Services davon gelöst werden können, dadurch hängt da "grauer Krempel" noch halb am Interface. Das führt dann zu den Problemen.
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.468
Punkte für Reaktionen
356
Punkte
103
Auf der Syno habe ich fast nichts mehr drauf - ist degradiert zum CIFS/NFS Datentopf. Früher hatte ich knapp 20-30 Container mit Watchtower updates drauf laufen.

immerhin ist jetzt die Ursache für das Problem klar. Jetzt muss man Synology nur noch nerven, bis die Lösung umgesetzt wird ^^
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
immerhin ist jetzt die Ursache für das Problem klar. Jetzt muss man Synology nur noch nerven, bis die Lösung umgesetzt wird ^^

Ich schau mal wie weit ich komme. Meine Erfahrungen mit dem Synology Support sind allerdings nicht die besten, wenn es um kompliziertere Sachverhalte geht. Die wollen dann wegen jedem Furz Remotezugriff und das geht gar nicht.
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
Statement Synology Support:

Thank you for contacting Synology support.

Regarding the issue that you mentioned, thank you for letting us know, and we are aware of the issue. We will update the DSM kernel to 4.4.180 in DSM7.0, which should take care of the issue.
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
Nachgefragt.....:

We are aiming to release DSM 7.0 Beta before the end of this year.

Our developers will also consider the possibility of fixing this issue in the DSM 6.2.x version.
 
  • Like
Reaktionen: haydibe

3x3cut0r

Benutzer
Mitglied seit
21. Mai 2011
Beiträge
489
Punkte für Reaktionen
11
Punkte
24
hatte ich garnicht so auf dem schirm das synology so alte kernel verwendet ...
gut "alt" ist relativ. der 4.4er wird ja noch bis 2022 supported ... aber trotzdem.
und dann kommt mit DSM7.0 kein Sprung auf 4.14, 4.19 oder sogar 5.x sondern lediglich ein paar SUBLEVEL dazu ...
 

Ulfhednir

Benutzer
Sehr erfahren
Mitglied seit
26. Aug 2013
Beiträge
3.246
Punkte für Reaktionen
912
Punkte
174
Das Problem trat bei mir gerade ebenfalls auf nachdem ich mein Pi-Hole neu aufsetzen musste. Neustart half bei mir nicht.
Lösung: Ich habe die Dateien unter /var/lib/docker/network/files/ platt gemacht.
 

Ulfhednir

Benutzer
Sehr erfahren
Mitglied seit
26. Aug 2013
Beiträge
3.246
Punkte für Reaktionen
912
Punkte
174
Der Pfad stimmt.
zhb8KLj.png
 

haydibe

Benutzer
Sehr erfahren
Mitglied seit
12. Apr 2016
Beiträge
1.468
Punkte für Reaktionen
356
Punkte
103
Hmm, ich hab auch "alte Reste" von Netwerk-Eintellungen in /var/lib/docker/network/files, wobei sie dort unter Synology nicht hingehören dürften!

Unter jeder "normalen" Linux-Distribution wird als data-root das Verzeichnis /var/lib/docker verwendet, bei Synology wird allerdings immer das Verzeichnis /volume?/@docker ( das ? entspricht dabei der Nummer des Volumes, auf der das Docker-Paket installiert ist) verwendet, so dass dieses Verzeichnis eigentlich /volume?/@docker/network/files sein muss. Bei mir lagen in beiden Verzeichnisen Daten; ich halte die Daten in /var/lib/docker für einen Bug oder ein Überbleibsel von älteren Versionen.

Die relevante Datei ist /volume?/@docker/network/files/local-kv.db. In ihr werden die Docker Netzwerke, sowie die Container zu Netwerk zuordnung und scheinbar auch die Published-Ports gespeichert.

Bei deaktiviertem Docker-Paket kann man die Datei über die Shell mit folgendem Befehl (als root) löschen:
Code:
rm -f $(docker info --format '{{.DockerRootDir}}')/network/files/local-kv.db
Danach kann das Docker-Paket wieder gestartet werden. Alle Container, die ein "external" Network brauchen werden dann nicht mehr starten können, solange dieses nicht erneut manuell angelegt wird. Wem das nichts sagt, der wird mit hoher Wahrscheinlichkeit keins verwenden, so dass er sich hier keine Sorgen machen muss.
 

3x3cut0r

Benutzer
Mitglied seit
21. Mai 2011
Beiträge
489
Punkte für Reaktionen
11
Punkte
24
Also ich habe nun folgendes gemacht:
Mein Docker gebackupt -> App Deinstalliert -> alle Verzeichnisse die auch schon genannt wurden gecleart -> NAS neugestartet -> Docker neuinstalliert -> Netzwerke neu erstellt -> Container neu erstellt.
Bis hierhin lief alles!

Dann NAS nochmal neugestartet. Jetzt kam der Docker-Daemon aber ewig nicht hoch. Musste ihn paar mal beenden und neustarten ... irgendwann gings.
Auch jetzt starten einige Container nicht wegen Port-Konflikten. Mein Docker log sieht nun so aus:
Code:
2020-10-26T18:23:18+01:00 DS-918 docker[23838]: WARN[0742] xtables contention detected while running [--wait -t nat -C DOCKER -p tcp -d 0/0 --dport 8093 -j DNAT --to-destination 172.22.0.6:80 ! -i docker-854685e4]: Waited for 2.05 seconds and received "Another app is currently holding the xtables lock. Stopped waiting after 1s.\n/sbin/iptables: line 19: usleep: command not found\n"
2020-10-26T18:23:19+01:00 DS-918 docker[23838]: WARN[0743] xtables contention detected while running [--wait -t nat -C DOCKER -p tcp -d 0/0 --dport 8090 -j DNAT --to-destination 172.18.0.4:80 ! -i docker-bb4ec93b]: Waited for 3.06 seconds and received "Another app is currently holding the xtables lock. Stopped waiting after 1s.\n/sbin/iptables: line 19: usleep: command not found\nAnother app is currently holding the xtables lock. Stopped waiting after 1s.\n/sbin/iptables: line 19: usleep: command not found\n"
2020-10-26T18:23:20+01:00 DS-918 docker[23838]: WARN[0744] error locating sandbox id b87782b56e035e9a9b32c25ac906befadec82629acbbd42cd0102a08e510bbc0: sandbox b87782b56e035e9a9b32c25ac906befadec82629acbbd42cd0102a08e510bbc0 not found
2020-10-26T18:23:20+01:00 DS-918 docker[23838]: WARN[0744] error locating sandbox id 3a25d28125152e2105de834635703d5891bb2c92d001d6c514d124a39f2e649d: sandbox 3a25d28125152e2105de834635703d5891bb2c92d001d6c514d124a39f2e649d not found
2020-10-26T18:23:20+01:00 DS-918 docker[23838]: WARN[0744] error locating sandbox id c5a6a5fdbc12c6f5eb523801c2fe7bd2de3e933e099ce0faaada28f94a63feb2: sandbox c5a6a5fdbc12c6f5eb523801c2fe7bd2de3e933e099ce0faaada28f94a63feb2 not found
2020-10-26T18:23:20+01:00 DS-918 docker[23838]: WARN[0744] error locating sandbox id f1f80eed65a13cedf92e43bf637b9f6e1de899fab7fb218b9cd91d87dccf2d99: sandbox f1f80eed65a13cedf92e43bf637b9f6e1de899fab7fb218b9cd91d87dccf2d99 not found
2020-10-26T18:23:20+01:00 DS-918 docker[23838]: WARN[0744] error locating sandbox id 952cdb18fe72ce6659e86a0164854f038074c3cda921751027759ce6aaf685a9: sandbox 952cdb18fe72ce6659e86a0164854f038074c3cda921751027759ce6aaf685a9 not found
2020-10-26T18:23:20+01:00 DS-918 docker[23838]: WARN[0744] error locating sandbox id 7afca5c19cf6a4ecd4aa152e2e8217962d3c46b79cd9e61daa00c135bda53524: sandbox 7afca5c19cf6a4ecd4aa152e2e8217962d3c46b79cd9e61daa00c135bda53524 not found
2020-10-26T18:23:21+01:00 DS-918 docker[23838]: WARN[0745] Ignoring Exit Event, no such exec command found  container=6cb1c76b3cdebdf3999d24178cedf1bdc03111bd7120593039c3328120dfb22a exec-id=6cb1c76b3cdebdf3999d24178cedf1bdc03111bd7120593039c3328120dfb22a exec-pid=819
2020-10-26T18:23:21+01:00 DS-918 docker[23838]: WARN[0745] Ignoring Exit Event, no such exec command found  container=28c561fdbef4d57052919f56789e9a311e07e58ed915160f8a9517302301d35c exec-id=28c561fdbef4d57052919f56789e9a311e07e58ed915160f8a9517302301d35c exec-pid=11962
2020-10-26T18:23:21+01:00 DS-918 docker[23838]: WARN[0745] error locating sandbox id c1383cc5d3ea13dfe470b78871421ded4e6f77209969575549e94e43eba3afa5: sandbox c1383cc5d3ea13dfe470b78871421ded4e6f77209969575549e94e43eba3afa5 not found
2020-10-26T18:23:21+01:00 DS-918 docker[23838]: WARN[0745] Ignoring Exit Event, no such exec command found  container=5c1b98c7f864e881e2a897505745bb6277be191eb6de7568301398d708eee6fe exec-id=5c1b98c7f864e881e2a897505745bb6277be191eb6de7568301398d708eee6fe exec-pid=30889
2020-10-26T18:23:21+01:00 DS-918 docker[23838]: WARN[0745] Ignoring Exit Event, no such exec command found  container=c14784c0fa4de2a84e643feded91800727932ee5cec1211754eb7fd3308f990c exec-id=c14784c0fa4de2a84e643feded91800727932ee5cec1211754eb7fd3308f990c exec-pid=30627
2020-10-26T18:23:22+01:00 DS-918 docker[23838]: WARN[0745] Ignoring Exit Event, no such exec command found  container=4382ce3b65636eb33d952068c3a09d5e17e0e6ee50fb717041e4a87481dfdde6 exec-id=4382ce3b65636eb33d952068c3a09d5e17e0e6ee50fb717041e4a87481dfdde6 exec-pid=1921
2020-10-26T18:23:22+01:00 DS-918 docker[23838]: WARN[0746] Ignoring Exit Event, no such exec command found  container=78c726271202f6073754fb4ff477f359084afe1a36b1d81770e572325b996a30 exec-id=78c726271202f6073754fb4ff477f359084afe1a36b1d81770e572325b996a30 exec-pid=18520
2020-10-26T18:23:22+01:00 DS-918 docker[23838]: WARN[0746] Ignoring Exit Event, no such exec command found  container=5c29cae546ed6d9627856d98c5bc9cfbd650711553b931781b0347e4c02d7f3e exec-id=5c29cae546ed6d9627856d98c5bc9cfbd650711553b931781b0347e4c02d7f3e exec-pid=15862
2020-10-26T18:23:24+01:00 DS-918 docker[23838]: ERRO[0748] Force shutdown daemon
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] could not change group /var/run/docker.sock to docker: group docker not found
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support kernel memory limit
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup cfs period
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup cfs quotas
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup rt period
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup rt runtime
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup blkio weight
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup blkio weight_device
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup blkio throttle.read_bps_device
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup blkio throttle.write_bps_device
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup blkio throttle.read_iops_device
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] Your kernel does not support cgroup blkio throttle.write_iops_device
2020-10-26T18:23:29+01:00 DS-918 docker[6551]: WARN[0000] mountpoint for pids not found
2020-10-26T18:23:36+01:00 DS-918 docker[6551]: ERRO[0007] c556c900463d793f3e3e1368c590fd92973690b9c3fa6e45883f8014491196ce cleanup: failed to delete container from containerd: no such container
2020-10-26T18:23:41+01:00 DS-918 docker[6551]: WARN[0012] Running modprobe nf_nat failed with message: ``, error: exit status 1
2020-10-26T18:23:41+01:00 DS-918 docker[6551]: WARN[0012] Running modprobe xt_conntrack failed with message: ``, error: exit status 1
2020-10-26T18:23:41+01:00 DS-918 docker[6551]: WARN[0012] Could not load necessary modules for IPSEC rules: Running modprobe xfrm_user failed with message: ``, error: exit status 1
2020-10-26T18:23:41+01:00 DS-918 docker[6551]: WARN[0012] Could not load necessary modules for Conntrack: Running modprobe nf_conntrack failed with message: ``, error: exit status 1
2020-10-26T18:23:45+01:00 DS-918 docker[6551]: WARN[0016] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 15365750aab01ff43f241bcede6d91c0550f35ae594569b14c4f35ae8b284163 11060821912ed0d21905664482d6b945bbbefcf901a657395298906ab88a0827], retrying....
2020-10-26T18:23:46+01:00 DS-918 docker[6551]: WARN[0017] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 854685e4bbf852ad083ff7abf555ab8a72e0f6ce10c70a5a88a38309b891f053 f20eda62d49ceaae305071bce3a1999809b82084998be4ccc6ceeb9932e9d7a8], retrying....
2020-10-26T18:23:47+01:00 DS-918 docker[6551]: WARN[0018] Error (Unable to complete atomic operation, key modified) deleting object [endpoint bb4ec93bcef9d2fe5bbc641e5cf5546c02bab2c9193ffb6134f685de30eb76d0 b53469816ae1549482b3c678e5e64ae3a7cc7f6696c35deb34eb1a45d3a16a56], retrying....
2020-10-26T18:23:48+01:00 DS-918 docker[6551]: ERRO[0019] getEndpointFromStore for eid 6ad3d230ba27c9622d511190f6d4ab3b9ff19bde8bc779e943b9b8179ead7102 failed while trying to build sandbox for cleanup: could not find endpoint 6ad3d230ba27c9622d511190f6d4ab3b9ff19bde8bc779e943b9b8179ead7102: []
2020-10-26T18:23:48+01:00 DS-918 docker[6551]: WARN[0019] Failed deleting endpoint 6ad3d230ba27c9622d511190f6d4ab3b9ff19bde8bc779e943b9b8179ead7102: failed to get endpoint from store during Delete: could not find endpoint 6ad3d230ba27c9622d511190f6d4ab3b9ff19bde8bc779e943b9b8179ead7102: []

2020-10-26T18:23:48+01:00 DS-918 docker[6551]: ERRO[0019] getEndpointFromStore for eid ccca5d86919b43c2e7dded72ba59254f5cee4646a83b2a70c3d8cdc387cb1375 failed while trying to build sandbox for cleanup: could not find endpoint ccca5d86919b43c2e7dded72ba59254f5cee4646a83b2a70c3d8cdc387cb1375: []
2020-10-26T18:23:48+01:00 DS-918 docker[6551]: WARN[0019] Failed deleting endpoint ccca5d86919b43c2e7dded72ba59254f5cee4646a83b2a70c3d8cdc387cb1375: failed to get endpoint from store during Delete: could not find endpoint ccca5d86919b43c2e7dded72ba59254f5cee4646a83b2a70c3d8cdc387cb1375: []

2020-10-26T18:23:49+01:00 DS-918 docker[6551]: WARN[0020] Error (Unable to complete atomic operation, key modified) deleting object [endpoint bb4ec93bcef9d2fe5bbc641e5cf5546c02bab2c9193ffb6134f685de30eb76d0 efa5aaa72a1872468f3204bc82fd796cfb22ad79e68e3b613ea323c66bb281c0], retrying....
2020-10-26T18:23:50+01:00 DS-918 docker[6551]: WARN[0020] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 6617a0fc3a6dee7c8c0671914d8f356c4fa978eaa9987e94b8fd0dbb1c802900 c28f358b7640ba7ac9b27961dd2bc4bb014d5ef1211292948c70108144622a60], retrying....
2020-10-26T18:23:51+01:00 DS-918 docker[6551]: WARN[0022] Error (Unable to complete atomic operation, key modified) deleting object [endpoint bb4ec93bcef9d2fe5bbc641e5cf5546c02bab2c9193ffb6134f685de30eb76d0 61f501849de974224f9a5ea1ac480b358e49954827ac99ff1ec3c843409a7a29], retrying....
2020-10-26T18:23:51+01:00 DS-918 docker[6551]: WARN[0022] Error (Unable to complete atomic operation, key modified) deleting object [endpoint ff08b5596137a4500e436fb1598d67a5d084e781da35b5ac2922f8a5744d5340 b5013ce33bb93ce8e67a388dce824cdd307a945af53f45547d51076c4a773dd1], retrying....
2020-10-26T18:23:52+01:00 DS-918 docker[6551]: WARN[0023] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 15365750aab01ff43f241bcede6d91c0550f35ae594569b14c4f35ae8b284163 bbca0e6191f60f31346774fd0cbb23699124e8d7e4e6d77d49110373bcf3a8bc], retrying....
2020-10-26T18:23:53+01:00 DS-918 docker[6551]: WARN[0024] Error (Unable to complete atomic operation, key modified) deleting object [endpoint bb4ec93bcef9d2fe5bbc641e5cf5546c02bab2c9193ffb6134f685de30eb76d0 eaf44b10fe881d353dc69432db1be6d9df44f8d27c468eb80256341d5a95c371], retrying....
2020-10-26T18:23:54+01:00 DS-918 docker[6551]: WARN[0025] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 42a39136041f48f47d708a2c3b6585134a52b0ec8124d603f5fa2f34d748e418 1eb26f23cf24bd4e8be9f93ebc3797984a356a919ea727abe378084f1403a93f], retrying....
2020-10-26T18:23:55+01:00 DS-918 docker[6551]: WARN[0026] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 7ff16ea6e1654829aa0c120187adea184dfaff734515f8559dfe28ea4ee35124 d1d51696802e10c8c622ebac244dbce962756ee4cdf0b3cff311cb58eccd3548], retrying....
2020-10-26T18:23:56+01:00 DS-918 docker[6551]: WARN[0027] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 1346969a047fbec418eddce25db2e870b717f6ae15202dd849fbee8bcf94e9bf 154a91a78bacdb0cb0f0c740a71b73ae82b51ec98c50392cb027df742c4be1dc], retrying....
2020-10-26T18:23:56+01:00 DS-918 docker[6551]: ERRO[0027] getEndpointFromStore for eid 99a0f6d8198a19991977c6a88c23bab61ac6ea62df0a0012c7fddf39a5b799be failed while trying to build sandbox for cleanup: could not find endpoint 99a0f6d8198a19991977c6a88c23bab61ac6ea62df0a0012c7fddf39a5b799be: []
2020-10-26T18:23:56+01:00 DS-918 docker[6551]: WARN[0027] Failed deleting endpoint 99a0f6d8198a19991977c6a88c23bab61ac6ea62df0a0012c7fddf39a5b799be: failed to get endpoint from store during Delete: could not find endpoint 99a0f6d8198a19991977c6a88c23bab61ac6ea62df0a0012c7fddf39a5b799be: []

2020-10-26T18:23:57+01:00 DS-918 docker[6551]: ERRO[0028] getEndpointFromStore for eid 41c302963e838f7eb8f20d045a1d08a97505d5876714a797ecf73a9117f272af failed while trying to build sandbox for cleanup: could not find endpoint 41c302963e838f7eb8f20d045a1d08a97505d5876714a797ecf73a9117f272af: []
2020-10-26T18:23:57+01:00 DS-918 docker[6551]: WARN[0028] Failed deleting endpoint 41c302963e838f7eb8f20d045a1d08a97505d5876714a797ecf73a9117f272af: failed to get endpoint from store during Delete: could not find endpoint 41c302963e838f7eb8f20d045a1d08a97505d5876714a797ecf73a9117f272af: []

2020-10-26T18:23:57+01:00 DS-918 docker[6551]: WARN[0028] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 1346969a047fbec418eddce25db2e870b717f6ae15202dd849fbee8bcf94e9bf 0f931e03cd936c65d4b03da3e953380530ee539108f9aaeafe160a4ecabf8e80], retrying....
2020-10-26T18:23:58+01:00 DS-918 docker[6551]: WARN[0029] Error (Unable to complete atomic operation, key modified) deleting object [endpoint bb4ec93bcef9d2fe5bbc641e5cf5546c02bab2c9193ffb6134f685de30eb76d0 48606a1cb6d7ab2beb93afeeba844542e8221dfc7c43314eae78771c4de4b87e], retrying....
2020-10-26T18:23:58+01:00 DS-918 docker[6551]: WARN[0029] Error (Unable to complete atomic operation, key modified) deleting object [endpoint ad9bc069381f2683bf47661af57df92bc3004eda53c7c0107ea54584d8b2c4c4 d4351adcd1cf8bb44ab023f86fa5c48acb6081e6499508f491abbb20378f7ffe], retrying....
2020-10-26T18:23:59+01:00 DS-918 docker[6551]: WARN[0030] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 30d073be3846561d80110b38660b03e21770e8bccf54a59529a673c0b034eeeb c79c2de0980fcb19ead4c7bbd9c61c341b94c3efdd54e0f262d19be454fb8565], retrying....
2020-10-26T18:24:00+01:00 DS-918 docker[6551]: ERRO[0031] getEndpointFromStore for eid 2a9906f6336491a7b178df62126557f1cc00c2fcc32854c33be2c6a9e266562f failed while trying to build sandbox for cleanup: could not find endpoint 2a9906f6336491a7b178df62126557f1cc00c2fcc32854c33be2c6a9e266562f: []
2020-10-26T18:24:00+01:00 DS-918 docker[6551]: WARN[0031] Failed deleting endpoint 2a9906f6336491a7b178df62126557f1cc00c2fcc32854c33be2c6a9e266562f: failed to get endpoint from store during Delete: could not find endpoint 2a9906f6336491a7b178df62126557f1cc00c2fcc32854c33be2c6a9e266562f: []

2020-10-26T18:24:00+01:00 DS-918 docker[6551]: WARN[0031] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 1346969a047fbec418eddce25db2e870b717f6ae15202dd849fbee8bcf94e9bf c61d9668002656f938bf40f5ae47bd74a6c525d733adb7b6abd16026d6c358b5], retrying....
2020-10-26T18:24:01+01:00 DS-918 docker[6551]: ERRO[0032] getEndpointFromStore for eid a506295c667876bc320c6c7231342a1ebe0382de0bcd50cdca446ddea0ab662a failed while trying to build sandbox for cleanup: could not find endpoint a506295c667876bc320c6c7231342a1ebe0382de0bcd50cdca446ddea0ab662a: []
2020-10-26T18:24:01+01:00 DS-918 docker[6551]: WARN[0032] Failed deleting endpoint a506295c667876bc320c6c7231342a1ebe0382de0bcd50cdca446ddea0ab662a: failed to get endpoint from store during Delete: could not find endpoint a506295c667876bc320c6c7231342a1ebe0382de0bcd50cdca446ddea0ab662a: []

2020-10-26T18:24:01+01:00 DS-918 docker[6551]: WARN[0032] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 6617a0fc3a6dee7c8c0671914d8f356c4fa978eaa9987e94b8fd0dbb1c802900 d7d78c21579d16355bbfdf4ed262240d35671bb775e66e9e5a5995dd195c4de1], retrying....
2020-10-26T18:24:02+01:00 DS-918 docker[6551]: WARN[0033] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 1346969a047fbec418eddce25db2e870b717f6ae15202dd849fbee8bcf94e9bf 8280b0d6e6cc76637779624ac50f324041c96bfa27254556a531130832b984b3], retrying....
2020-10-26T18:24:03+01:00 DS-918 docker[6551]: ERRO[0033] getEndpointFromStore for eid cd107fc288e70bb2e7ce8b1a0866d7a6a640524d7780c19918f848678094f1a4 failed while trying to build sandbox for cleanup: could not find endpoint cd107fc288e70bb2e7ce8b1a0866d7a6a640524d7780c19918f848678094f1a4: []
2020-10-26T18:24:03+01:00 DS-918 docker[6551]: WARN[0033] Failed deleting endpoint cd107fc288e70bb2e7ce8b1a0866d7a6a640524d7780c19918f848678094f1a4: failed to get endpoint from store during Delete: could not find endpoint cd107fc288e70bb2e7ce8b1a0866d7a6a640524d7780c19918f848678094f1a4: []

2020-10-26T18:24:03+01:00 DS-918 docker[6551]: ERRO[0034] getEndpointFromStore for eid 8462d6b6f96b984b9f284e3de83f69aaf20adf8a9286e4cbad7171ebe816a462 failed while trying to build sandbox for cleanup: could not find endpoint 8462d6b6f96b984b9f284e3de83f69aaf20adf8a9286e4cbad7171ebe816a462: []
2020-10-26T18:24:03+01:00 DS-918 docker[6551]: WARN[0034] Failed deleting endpoint 8462d6b6f96b984b9f284e3de83f69aaf20adf8a9286e4cbad7171ebe816a462: failed to get endpoint from store during Delete: could not find endpoint 8462d6b6f96b984b9f284e3de83f69aaf20adf8a9286e4cbad7171ebe816a462: []

2020-10-26T18:24:04+01:00 DS-918 docker[6551]: WARN[0034] Error (Unable to complete atomic operation, key modified) deleting object [endpoint 2506c27abecd95276955a1abdf96d01a4d2fdb7e5360c9ceba22fca526ebcde2 70c5d2a40d83a0b55c25845912e5bee5f71dd245d4bbd73ba7b0ebd8cb2c08ba], retrying....
2020-10-26T18:24:04+01:00 DS-918 docker[6551]: WARN[0035] Error (Unable to complete atomic operation, key modified) deleting object [endpoint bb4ec93bcef9d2fe5bbc641e5cf5546c02bab2c9193ffb6134f685de30eb76d0 239aeabec3d4c7f7a3734730a28751e14e8c18dfd67aab8171ba9e7f6a26942b], retrying....
2020-10-26T18:24:05+01:00 DS-918 docker[6551]: ERRO[0036] getEndpointFromStore for eid a0e3b206d645a52820ee28062cbf61f723585f6dd4440067272d9f082f3f706b failed while trying to build sandbox for cleanup: could not find endpoint a0e3b206d645a52820ee28062cbf61f723585f6dd4440067272d9f082f3f706b: []
2020-10-26T18:24:05+01:00 DS-918 docker[6551]: WARN[0036] Failed deleting endpoint a0e3b206d645a52820ee28062cbf61f723585f6dd4440067272d9f082f3f706b: failed to get endpoint from store during Delete: could not find endpoint a0e3b206d645a52820ee28062cbf61f723585f6dd4440067272d9f082f3f706b: []

2020-10-26T18:24:18+01:00 DS-918 docker[9689]: WARN[0000] Running modprobe nf_nat failed with message: ``, error: exit status 1
2020-10-26T18:24:18+01:00 DS-918 docker[9689]: WARN[0000] Running modprobe xt_conntrack failed with message: ``, error: exit status 1
2020-10-26T18:24:19+01:00 DS-918 docker[9769]: WARN[0000] Running modprobe nf_nat failed with message: ``, error: exit status 1
2020-10-26T18:24:19+01:00 DS-918 docker[9769]: WARN[0000] Running modprobe xt_conntrack failed with message: ``, error: exit status 1
2020-10-26T18:24:23+01:00 DS-918 docker[10408]: WARN[0000] Running modprobe nf_nat failed with message: ``, error: exit status 1
2020-10-26T18:24:23+01:00 DS-918 docker[10408]: WARN[0000] Running modprobe xt_conntrack failed with message: ``, error: exit status 1

und das geht ewig so weiter.

ich habe auch ein Ticket bei Synology aufgemacht. Das verläuft sich aber ins leere. Der deutsche Support hat gemeint er gibt das an die Experten nach Taiwan weiter ... son typ aus Taiwan hat dann paar mal was nachgefragt aber die endgültige Antwort war:
Since the port conflict is more likely related to Docker-Proxy daemon.

Therefore, it is Docker's official issue, we can't help any further since we are not developer of Docker.

Hope you can understand.

Danke für nichts.
Ich stehe also am Anfang und sehe hier keine Hoffnung mehr dass das mal gefixt wird in naher Zukunft.

Schade.
 

mamema

Benutzer
Mitglied seit
23. Okt 2009
Beiträge
667
Punkte für Reaktionen
132
Punkte
63
also mal von vorne:

Mein Konflikt Problem hat sich gemässigt, seit ich mein Storj Projekt beeredigt habe und wenig an neuem einbaue bzw. modifiziere.
Habt ihr Storj Container?
 
Zuletzt bearbeitet:

3x3cut0r

Benutzer
Mitglied seit
21. Mai 2011
Beiträge
489
Punkte für Reaktionen
11
Punkte
24
Konnte mein Problem nun auch in den Griff bekommen:

1. 90% aller Container (bis auf Datenbanken, portainer-ce und watchtower) auf "--restart=unless-stopped" umstellen (vorher wars "--restart=always"). Das hat zur Folge, das nicht alle Container wieder starten, nachdem sie sauber (exit status=0) beendet wurden.
2. über den Aufgabenplaner ein Shutdown-Skript für alle Docker Container ausführen lassen, wenn die NAS neu startet.
Dieses Skript stoppt alle Container, inclusive Docker-Daemon in einer logischen Reihenfolge bevor die NAS neu startet.
3. Wenn die NAS nun hochfährt, ist der Docker-Daemon gestoppt und es kommt zu keinen Port-Konflikten
4. Per Aufgabenplaner nun wieder das Start-Skript für alle Docker Container ausführen lassen.

Hab das Skript mal im Github hochgeladen. Wer es verwenden möchte einfach laden, seine Docker-Container-Namen unter "DECLARATION" abändern/eintragen und z.B. unter /volume1/docker/docker/docker-container-ctl.sh ablegen.
https://github.com/3x3cut0r/synology/blob/master/volume1/docker/docker-container-ctl.sh
Code:
USAGE:
  ./docker-container-ctl.sh [OPTIONS]

OPTIONS:
  --start    start all docker containers

  --stop    stop all docker containers

  --restart    stop all docker containers,
        restart the docker-daemon,
        start all docker containers

  --cleanup    remove service-files, if docker-daemon stops
        (rm -rf /usr/local/etc/services.d/docker_*)

  --include-daemon
        if --stop, also stop the docker-daemon

  --skip    list of docker containers to be skipped
        (if --restart, they will be skipped from starting)

  --sleep, --wait
        sleep (n) seconds after docker-daemon was started

EXAMPLES:
  ./docker-container-ctl.sh --stop --include-daemon --cleanup
  ./docker-container-ctl.sh --start --sleep 60 --skip nextcloud,tvheadend

Aufgabenplaner beim Herunterfahren:
Code:
Allgemein:
    Systemsteuerung / Aufgabenplaner / Erstellen / Ausgelöste Aufgabe / Benutzerdefiniertes Skript:
    Vorgang: STOP DOCKER
    Benutzer: root
    Ereignis: Herunterfahren
    Aktiviert: X
Aufgabeneinstellung:
    Benutzerdefiniertes Skript:
    /volume1/docker/docker-container-ctl.sh --stop --include-daemon --cleanup

Aufgabenplaner beim Hochfahren:
Code:
Allgemein:
    Systemsteuerung / Aufgabenplaner / Erstellen / Ausgelöste Aufgabe / Benutzerdefiniertes Skript:
    Vorgang: START DOCKER
    Benutzer: root
    Ereignis: Hochfahren
    Aktiviert: X
Aufgabeneinstellung:
    Benutzerdefiniertes Skript:
    /volume1/docker/docker-container-ctl.sh --start --sleep 120

Habe es auch ohne sleep probiert ... geht auch. Fühl mich aber etwas sicherer bei einer längeren Verschnaufpause für die NAS beim Starten ...

Nun habe ich keine Port-Konflikt-Probleme mehr beim Neustarten der NAS! und der Docker-Daemon kann nun sauber (neu)starten.

Gruß
 

nachon

Benutzer
Mitglied seit
21. Aug 2011
Beiträge
2.637
Punkte für Reaktionen
1
Punkte
78
Danke für den Hinweis. Habe gerade selbes Problem. Werde Deinen Ansatz mal probieren.


[EDIT]
Und kann berichten, dass es mir geholfen hat. Vielen Dank. Scheint nun zu klappen.
 
Zuletzt bearbeitet:


 

Kaffeautomat

Wenn du das Forum hilfreich findest oder uns unterstützen möchtest, dann gib uns doch einfach einen Kaffee aus.

Als Dankeschön schalten wir deinen Account werbefrei.

:coffee:

Hier gehts zum Kaffeeautomat