Não descarte uma possível solução com base em suposições infundadas. Acabei de testar a inserção de 100.000 linhas de um
System.Data.DataTable
em uma tabela MySQL usando um padrão MySqlDataAdapter#Update()
dentro de uma Transaction
. Levou consistentemente cerca de 30 segundos para ser executado:using (MySqlTransaction tran = conn.BeginTransaction(System.Data.IsolationLevel.Serializable))
{
using (MySqlCommand cmd = new MySqlCommand())
{
cmd.Connection = conn;
cmd.Transaction = tran;
cmd.CommandText = "SELECT * FROM testtable";
using (MySqlDataAdapter da = new MySqlDataAdapter(cmd))
{
da.UpdateBatchSize = 1000;
using (MySqlCommandBuilder cb = new MySqlCommandBuilder(da))
{
da.Update(rawData);
tran.Commit();
}
}
}
}
(Eu tentei alguns valores diferentes para
UpdateBatchSize
mas eles não parecem ter um impacto significativo no tempo decorrido.) Por outro lado, o código a seguir usando
MySqlBulkLoader
levou apenas 5 ou 6 segundos para ser executado ... string tempCsvFileSpec = @"C:\Users\Gord\Desktop\dump.csv";
using (StreamWriter writer = new StreamWriter(tempCsvFileSpec))
{
Rfc4180Writer.WriteDataTable(rawData, writer, false);
}
var msbl = new MySqlBulkLoader(conn);
msbl.TableName = "testtable";
msbl.FileName = tempCsvFileSpec;
msbl.FieldTerminator = ",";
msbl.FieldQuotationCharacter = '"';
msbl.Load();
System.IO.File.Delete(tempCsvFileSpec);
... incluindo o tempo para despejar as 100.000 linhas do DataTable para um arquivo CSV temporário (usando código semelhante a este ), carregamento em massa desse arquivo e exclusão do arquivo posteriormente.