From: | Alain Benard <alain(dot)benard(at)nancy(dot)inra(dot)fr> |
---|---|
To: | pgsql-fr-generale(at)postgresql(dot)org |
Subject: | Volumes importants - lenteur. |
Date: | 2011-04-12 09:50:31 |
Message-ID: | 4DA42067.4060008@nancy.inra.fr |
Views: | Raw Message | Whole Thread | Download mbox | Resend email |
Thread: | |
Lists: | pgsql-fr-generale |
Bonjour,
je voudrai savoir s'il existe une limite de bonne pratique dans la
taille d'une table postgresql. Je travaille sur des données
géographiques avec Postgres / Postgis et stocke des points géographiques
auxquels sont associés par exemple une mesure de température. Jusqu'ici
ma plus grosse table représentait 27 millions de lignes avec des temps
d'accès restant raisonnables. Je viens d'intégrer de nouvelles données
pour un total d'environ 300 millions de lignes et là ça devient
catastrophique. La structure de la table :
X (integer) champ indexé btree
Y (integer) champ indexé btree
Mesure (smallint)
the_geom (geometry point) indexé gist
La clé primaire est constituée du couple x,y
Le constat :
des vaccum analyze qui n'en finissent pas.
un select count (*) qui dure qui dure qui dure ...
La conf :
Un serveur debian / etch / postgresql 8.3 avec 4 Go de ram.
Postgresql :
shared_buffers = 1024MB
work_mem = 18MB
maintenance_work_mem = 176MB (par ailleurs j'ai passé la
commande suivante 'alter user postgres set maintenance_work_mem
to '512MB'; ' - je ne sais d'ailleurs pas comment afficher si
c'est pris en compte)
max_fsm_pages = 1560000 (valeur fixée suite à la demande de
postgresql lors de vacuum)
wal_buffers = 8MB
j'espère que quelques âmes charitables spécialistes pourront me donner
des pistes. Merci par avance.
Alain.
Attachment | Content-Type | Size |
---|---|---|
alain_benard.vcf | text/x-vcard | 286 bytes |
From | Date | Subject | |
---|---|---|---|
Next Message | Thomas Reiss | 2011-04-12 11:48:45 | Re: Volumes importants - lenteur. |
Previous Message | Bernard Schoenacker | 2011-04-11 16:34:04 | Re: Solutions Linux 2011 |