PostgreSQL
 sql >> Base de Dados >  >> RDS >> PostgreSQL

Postgresql - desempenho do uso de array em banco de dados grande


Acho que você deveria usar um elements tabela:

  • Postgres seria capaz de usar estatísticas para prever quantas linhas irão corresponder antes de executar a consulta, então ele seria capaz de usar o melhor plano de consulta (é mais importante se seus dados não forem distribuídos uniformemente);

  • você poderá localizar dados de consulta usando CLUSTER elements USING elements_id_element_idx;

  • quando o Postgres 9.2 for lançado, você poderá aproveitar as verificações somente de índice;

Mas fiz alguns testes para elementos de 10M:
create table elements (id_item bigint, id_element bigint);
insert into elements
  select (random()*524288)::int, (random()*32768)::int
    from generate_series(1,10000000);

\timing
create index elements_id_item on elements(id_item);
Time: 15470,685 ms
create index elements_id_element on elements(id_element);
Time: 15121,090 ms

select relation, pg_size_pretty(pg_relation_size(relation))
  from (
    select unnest(array['elements','elements_id_item', 'elements_id_element'])
      as relation
  ) as _;
      relation       | pg_size_pretty 
---------------------+----------------
 elements            | 422 MB
 elements_id_item    | 214 MB
 elements_id_element | 214 MB



create table arrays (id_item bigint, a_elements bigint[]);
insert into arrays select array_agg(id_element) from elements group by id_item;

create index arrays_a_elements_idx on arrays using gin (a_elements);
Time: 22102,700 ms

select relation, pg_size_pretty(pg_relation_size(relation))
  from (
    select unnest(array['arrays','arrays_a_elements_idx']) as relation
  ) as _;
       relation        | pg_size_pretty 
-----------------------+----------------
 arrays                | 108 MB
 arrays_a_elements_idx | 73 MB

Então, por outro lado, as matrizes são menores e têm índice menor. Eu faria alguns testes de 200 milhões de elementos antes de tomar uma decisão.