Pull to refresh

Загружаем данные в postgresql

Reading time3 min
Views18K
Прочитал статью о разгоне производительности операций вставок в СУБД Oracle при помощи транзакций на Java. Так как в данный момент я работаю с postgresql, то решил проверить, сколько выдаст эта СУБД в связке с голангом.
Используемый стек: golang-1.1.2 + postgresql-9.3.1.
Для запуска программы понадобится голанговский драйвер для postgresql. Я пользуюсь драйвером github.com/lib/pq, который установил при помощи команды go get -u github.com/lib/pq.

Среда тестирования.


Домашний десктоп с archlinux-x86_64, kernel-3.11.5, 4ГБ RAM (на момент теста было свободно примерно 1.2ГБ), обычный старенький шпиндельный HDD. Постгрес более-менее настроен (увеличен shared_buffers до 768МБ и max_connections до 1000, + еще какой-то тюнинг), но без хардкора.
Для чистоты эксперимента не делал никаких гороутин — все в 1 поток.

Текст программы
/* sql_insertion_test01.go 
 * Synthetic test for simple insert operations into postgresql database
 * Call: ./sql_insertion_test01
 * Pls, do not use name "insert_test", because this name is always used by go-pkg-system
 */
package main

import (
    _ "github.com/lib/pq"
    "database/sql"
    "fmt"
    "time"
)

const DB_CONNECT_STRING = 
    "host=localhost port=5432 user=your_role password=your_password dbname=your_database sslmode=disable"

func main() {

    db, err := sql.Open("postgres", DB_CONNECT_STRING)
    defer db.Close()

    if err != nil {
        fmt.Printf("Database opening error -->%v\n", err)
        panic("Database error")
    }

    init_database(&db)
    make_insertion(&db)

}

/*-----------------------------------------------------------------------------*/
func init_database(pdb **sql.DB) {

    db := *pdb

    init_db_strings := []string{
        "DROP SCHEMA IF EXISTS sb CASCADE;",
        "CREATE SCHEMA sb;",
        //be careful - next multiline string is quoted by backquote symbol
        `CREATE TABLE sb.test_data(
         id serial,
         device_id integer not null,
         parameter_id integer not null,
         value varchar(100),
         event_ctime timestamp default current_timestamp,
         constraint id_pk primary key (id));`}

    for _, qstr := range init_db_strings {
        _, err := db.Exec(qstr)

        if err != nil {
            fmt.Printf("Database init error -->%v\n", err)
            panic("Query error")
        }
    }
    fmt.Println("Database rebuilded successfully")
}

/*-----------------------------------------------------------------------------*/
func make_insertion(pdb **sql.DB) {

    db := *pdb
    const TEST_NUMBER = 400000

    // backquotes for next multiline string
    const INSERT_QUERY = `insert into sb.test_data(device_id, parameter_id, value)
                                  values ($1, $2, $3);`

    insert_query, err := db.Prepare(INSERT_QUERY)
    defer insert_query.Close()

    if err != nil {
        fmt.Printf("Query preparation error -->%v\n", err)
        panic("Test query error")
    }

    t1 := time.Now()

    for i := 0; i < TEST_NUMBER; i++ {

        _, err = insert_query.Exec(i, i, "0")

        if err != nil {
            fmt.Printf("Query execution error -->%v\n", err)
            panic("Error")
        }
    }

    t2 := time.Since(t1)

    fmt.Printf("%v queries are executed for %v seconds (%v per second)\n",
        TEST_NUMBER, t2.Seconds(), TEST_NUMBER/t2.Seconds())

    // do not forget clean up after work )
    //_, err = db.Query("TRUNCATE sb.test_data;")
}



Как видно из текста — никаких специальных выделений в транзакции, гороутин, временных таблиц и прочих ухищрений — прямой ввод.
Ну разумеется связка prepare-exec.

Результаты


Результаты — 16000-17000 вставок в секунду на моей машине.
Результаты не зависят от константы TEST_NUMBER (ставил 1000, 2000, 4000, 40000 и остановился на 400000). Возможно на больших значениях и произойдет затык, но думаю, что для текущих целей такой производительности хватает.
Рассчитывал получить худшие цифры и планировал повозиться с транзакциями, но не понадобилось.

Выводы


Думаю, что тест все же несколько синтетический — просто данные поместились в кэш. Не покидает ощущение, что при каких-то параметрах должен был упереться в производительность дисковой подсистемы. Да и десктопное ядро выделяет память пободрее серверного.
Возможно, что авторы драйвера используют какой-нибудь трюк. Но тем не менее, считаю, что данная связка приложений вполне юзабельна.
Tags:
Hubs:
+5
Comments7

Articles