<div dir="ltr">It&#39;s 8.4  - unfortunately we&#39;re having some problems with autovacum appearing to be configured correctly, not realistically running when it should<div><br></div><div>POSTGRES_LAST_AUTOVACUUM CRITICAL: DB &quot;xe&quot; (host:localhost) (port=1935) DB: xe TABLE: pg_catalog.pg_class: 17:11 November 18, 2016 (16 days 20 hours 23 minutes)<br></div><div><br></div><div>the thursday log is largely full of checkpoint_segments spam, and ONE deadlock condition:</div><div><br></div><div><div>DETAIL:  Process 9758 waits for ShareLock on transaction 40741339; blocked by process 9794.</div><div>        Process 9794 waits for ShareLock on transaction 40740891; blocked by process 9758.</div><div>        Process 9758: select * from rhn_channel.update_needed_cache($1) as result</div><div>        Process 9794:</div></div><div><br></div><div>there hasn&#39;t been much in the way of logging since the deadlock, just more checkpoint_segment spam</div><div><div>HINT:  Consider increasing the configuration parameter &quot;checkpoint_segments&quot;.</div><div>LOG:  checkpoints are occurring too frequently (16 seconds apart)</div></div><div><br></div><div>Since as near as I can tell the only meaningful logging over the last 4 days is the deadlock, I&#39;m inclined to think the deadlock has some relationship with the DB growing 40GB over the weekend.    Quentin&#39;s probably right, I probably need to turn up the logging levels.  Do we know where those are?  in the .conf file?</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Dec 5, 2016 at 11:06 AM, Grant Johnson <span dir="ltr">&lt;<a href="mailto:grant@amadensor.com" target="_blank">grant@amadensor.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">There is a good chance that the Thursday log holds some clues about what<br>
the activity was.    It is likely repeated often, and will be easy to<br>
find, as it was happening a lot.   If the volume was very high, you also<br>
see messages about checkpoints, because changes were out pacing the<br>
normal background DB writes.  If these were happening only during this<br>
anomalous time, I would not worry about it, but if it happens during<br>
normal operations, some tuning changes may be needed.<br>
<br>
If you are having updates that exceed your free space map, the normal<br>
vacuum will not release the space, and instead you will need to run a<br>
vacuum full, which has the unfortunate side effect of locking tables<br>
while it runs, so it impedes write operations.<br>
<br>
So, I would look at the log, see if anything starts making sense, and<br>
then clean up with a full vacuum during a low activity time, and perhaps<br>
a reindex all.   I have found that doing full clean up every year or so<br>
helps, but generally, leaving the free space in the files with normal<br>
vacuum/auto-vacuum helps performance.<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
On Mon, 2016-12-05 at 07:47 -0700, Mike Bean wrote:<br>
&gt; Of particular interest is<br>
&gt;<br>
&gt;<br>
&gt; -rw-------  1 postgres postgres  94479 Dec  2 21:29 postgresql-Fri.log<br>
&gt; -rw-------  1 postgres postgres      0 Dec  5 00:00 postgresql-Mon.log<br>
&gt; -rw-------  1 postgres postgres      0 Dec  3 00:00 postgresql-Sat.log<br>
&gt; -rw-------  1 postgres postgres      0 Dec  4 00:00 postgresql-Sun.log<br>
&gt; -rw-------  1 postgres postgres 208184 Dec  1 23:59 postgresql-Thu.log<br>
&gt; -rw-------  1 postgres postgres  86154 Nov 29 21:57 postgresql-Tue.log<br>
&gt; -rw-------  1 postgres postgres  89399 Nov 30 21:48 postgresql-Wed.log<br>
&gt;<br>
&gt;<br>
&gt; Huh - want to bet the writes were actually on thursday?    The plot<br>
&gt; thickens!<br>
&gt;<br>
&gt; On Mon, Dec 5, 2016 at 7:43 AM, Mike Bean &lt;<a href="mailto:beandaemon@gmail.com">beandaemon@gmail.com</a>&gt;<br>
&gt; wrote:<br>
&gt;<br>
&gt;         Do we have members who are comfortable/skilled with postgres?<br>
&gt;         Long story short we have a spacewalk server running<br>
&gt;         postgres and the DB is showing really erratic behavior.  We<br>
&gt;         used to do weekly vacuums to keep it from running out of<br>
&gt;         space, I figured out that doing a reindex bumped the free<br>
&gt;         space from 20-80 GB.  Over the weekend, it dropped to roughly<br>
&gt;         60, we went one week without doing a vacuum reindex, and it&#39;s<br>
&gt;         back down to 20.<br>
&gt;<br>
&gt;<br>
&gt;         I know for a fact there&#39;s no one else in the organization<br>
&gt;         making major changes on this DB, and certainly nothing that<br>
&gt;         could justify 40GB of writes in 3 days.  Not really being a<br>
&gt;         DBA, I&#39;m running low on my bag of tricks, thought I&#39;d see if<br>
&gt;         CLUE had any advice.   Running vacuums once a week to keep it<br>
&gt;         from filling the disk feels like taking aspirin to get over<br>
&gt;         your gunshot wound.  Sure, it&#39;ll keep the server running, but<br>
&gt;         ultimately what I really want to know is why a largely static<br>
&gt;         spacewalk DB is writing 60GB to the disk in a 2 week interval.<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
</div></div><div class="HOEnZb"><div class="h5">&gt; ______________________________<wbr>_________________<br>
&gt; clue mailing list: <a href="mailto:clue@cluedenver.org">clue@cluedenver.org</a><br>
&gt; For information, account preferences, or to unsubscribe see:<br>
&gt; <a href="http://cluedenver.org/mailman/listinfo/clue" rel="noreferrer" target="_blank">http://cluedenver.org/mailman/<wbr>listinfo/clue</a><br>
<br>
<br>
______________________________<wbr>_________________<br>
clue mailing list: <a href="mailto:clue@cluedenver.org">clue@cluedenver.org</a><br>
For information, account preferences, or to unsubscribe see:<br>
<a href="http://cluedenver.org/mailman/listinfo/clue" rel="noreferrer" target="_blank">http://cluedenver.org/mailman/<wbr>listinfo/clue</a><br>
</div></div></blockquote></div><br></div>