mirror of
https://github.com/gogrlx/bitcask.git
synced 2026-04-16 18:14:57 -07:00
Compare commits
15 Commits
| Author | SHA1 | Date | |
|---|---|---|---|
|
|
3f1d6635c4 | ||
|
|
67840ffb57 | ||
|
|
9f0a357ca0 | ||
|
|
52b6c74a21 | ||
|
|
d24a01797a | ||
|
|
bc8f6c6718 | ||
|
|
b6c212d60c | ||
|
|
3f1b90eb23 | ||
|
|
71a42800fe | ||
|
|
3b9627aeb8 | ||
|
|
e0c4c4fdae | ||
|
|
fb50eb2f82 | ||
|
|
fb2335e3c1 | ||
|
|
9a8aca55ba | ||
|
|
32b782b229 |
60
README.md
60
README.md
@@ -12,6 +12,7 @@ A Bitcask (LSM+WAL) Key/Value Store written in Go.
|
|||||||
|
|
||||||
* Embeddable
|
* Embeddable
|
||||||
* Builtin CLI
|
* Builtin CLI
|
||||||
|
* Builtin Redis-compatible server
|
||||||
* Predictable read/write performance
|
* Predictable read/write performance
|
||||||
* Low latecny
|
* Low latecny
|
||||||
* High throughput (See: [Performance](README.md#Performance)
|
* High throughput (See: [Performance](README.md#Performance)
|
||||||
@@ -57,6 +58,38 @@ $ bitcask -p /tmp/db get Hello
|
|||||||
World
|
World
|
||||||
```
|
```
|
||||||
|
|
||||||
|
## Usage (server)
|
||||||
|
|
||||||
|
There is also a builtin very simple Redis-compatible server called `bitcaskd`:
|
||||||
|
|
||||||
|
```#!bash
|
||||||
|
$ ./bitcaskd ./tmp
|
||||||
|
INFO[0000] starting bitcaskd v0.0.7@146f777 bind=":6379" path=./tmp
|
||||||
|
```
|
||||||
|
|
||||||
|
Example session:
|
||||||
|
|
||||||
|
```
|
||||||
|
$ telnet localhost 6379
|
||||||
|
Trying ::1...
|
||||||
|
Connected to localhost.
|
||||||
|
Escape character is '^]'.
|
||||||
|
SET foo bar
|
||||||
|
+OK
|
||||||
|
GET foo
|
||||||
|
$3
|
||||||
|
bar
|
||||||
|
DEL foo
|
||||||
|
:1
|
||||||
|
GET foo
|
||||||
|
$-1
|
||||||
|
PING
|
||||||
|
+PONG
|
||||||
|
QUIT
|
||||||
|
+OK
|
||||||
|
Connection closed by foreign host.
|
||||||
|
```
|
||||||
|
|
||||||
## Performance
|
## Performance
|
||||||
|
|
||||||
Benchmarks run on a 11" Macbook with a 1.4Ghz Intel Core i7:
|
Benchmarks run on a 11" Macbook with a 1.4Ghz Intel Core i7:
|
||||||
@@ -64,12 +97,33 @@ Benchmarks run on a 11" Macbook with a 1.4Ghz Intel Core i7:
|
|||||||
```
|
```
|
||||||
$ make bench
|
$ make bench
|
||||||
...
|
...
|
||||||
BenchmarkGet-4 300000 5065 ns/op 144 B/op 4 allocs/op
|
BenchmarkGet/128B-4 200000 5780 ns/op 400 B/op 5 allocs/op
|
||||||
BenchmarkPut-4 100000 14640 ns/op 699 B/op 7 allocs/op
|
BenchmarkGet/256B-4 200000 6138 ns/op 656 B/op 5 allocs/op
|
||||||
|
BenchmarkGet/512B-4 200000 5967 ns/op 1200 B/op 5 allocs/op
|
||||||
|
BenchmarkGet/1K-4 200000 6290 ns/op 2288 B/op 5 allocs/op
|
||||||
|
BenchmarkGet/2K-4 200000 6293 ns/op 4464 B/op 5 allocs/op
|
||||||
|
BenchmarkGet/4K-4 200000 7673 ns/op 9072 B/op 5 allocs/op
|
||||||
|
BenchmarkGet/8K-4 200000 10373 ns/op 17776 B/op 5 allocs/op
|
||||||
|
BenchmarkGet/16K-4 100000 14227 ns/op 34928 B/op 5 allocs/op
|
||||||
|
BenchmarkGet/32K-4 100000 25953 ns/op 73840 B/op 5 allocs/op
|
||||||
|
|
||||||
|
BenchmarkPut/128B-4 100000 17353 ns/op 680 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/256B-4 100000 18620 ns/op 808 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/512B-4 100000 19068 ns/op 1096 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/1K-4 100000 23738 ns/op 1673 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/2K-4 50000 25118 ns/op 2826 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/4K-4 50000 44605 ns/op 5389 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/8K-4 30000 55237 ns/op 10001 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/16K-4 20000 78966 ns/op 18972 B/op 5 allocs/op
|
||||||
|
BenchmarkPut/32K-4 10000 116253 ns/op 41520 B/op 5 allocs/op
|
||||||
```
|
```
|
||||||
|
|
||||||
|
For 128B values:
|
||||||
|
|
||||||
* ~180,000 reads/sec
|
* ~180,000 reads/sec
|
||||||
* ~60,000 writes/sec
|
* ~60,000 writes/sec
|
||||||
|
|
||||||
|
The full benchmark above shows linear performance as you increase key/value sizes.
|
||||||
|
|
||||||
## License
|
## License
|
||||||
|
|
||||||
|
|||||||
85
bitcask.go
85
bitcask.go
@@ -2,35 +2,33 @@ package bitcask
|
|||||||
|
|
||||||
import (
|
import (
|
||||||
"errors"
|
"errors"
|
||||||
"fmt"
|
|
||||||
"io"
|
"io"
|
||||||
"io/ioutil"
|
"io/ioutil"
|
||||||
"os"
|
"os"
|
||||||
"path/filepath"
|
"path/filepath"
|
||||||
"sort"
|
|
||||||
"strconv"
|
|
||||||
"strings"
|
"strings"
|
||||||
"time"
|
"time"
|
||||||
|
|
||||||
|
"github.com/derekparker/trie"
|
||||||
"github.com/gofrs/flock"
|
"github.com/gofrs/flock"
|
||||||
)
|
)
|
||||||
|
|
||||||
const (
|
|
||||||
DefaultMaxDatafileSize = 1 << 20 // 1MB
|
|
||||||
)
|
|
||||||
|
|
||||||
var (
|
var (
|
||||||
ErrKeyNotFound = errors.New("error: key not found")
|
ErrKeyNotFound = errors.New("error: key not found")
|
||||||
ErrCannotAcquireLock = errors.New("error: cannot acquire lock")
|
ErrKeyTooLarge = errors.New("error: key too large")
|
||||||
|
ErrValueTooLarge = errors.New("error: value too large")
|
||||||
|
ErrDatabaseLocked = errors.New("error: database locked")
|
||||||
)
|
)
|
||||||
|
|
||||||
type Bitcask struct {
|
type Bitcask struct {
|
||||||
*flock.Flock
|
*flock.Flock
|
||||||
|
|
||||||
|
opts Options
|
||||||
path string
|
path string
|
||||||
curr *Datafile
|
curr *Datafile
|
||||||
keydir *Keydir
|
keydir *Keydir
|
||||||
datafiles []*Datafile
|
datafiles []*Datafile
|
||||||
|
trie *trie.Trie
|
||||||
|
|
||||||
maxDatafileSize int64
|
maxDatafileSize int64
|
||||||
}
|
}
|
||||||
@@ -38,6 +36,7 @@ type Bitcask struct {
|
|||||||
func (b *Bitcask) Close() error {
|
func (b *Bitcask) Close() error {
|
||||||
defer func() {
|
defer func() {
|
||||||
b.Flock.Unlock()
|
b.Flock.Unlock()
|
||||||
|
os.Remove(b.Flock.Path())
|
||||||
}()
|
}()
|
||||||
|
|
||||||
for _, df := range b.datafiles {
|
for _, df := range b.datafiles {
|
||||||
@@ -73,12 +72,20 @@ func (b *Bitcask) Get(key string) ([]byte, error) {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func (b *Bitcask) Put(key string, value []byte) error {
|
func (b *Bitcask) Put(key string, value []byte) error {
|
||||||
|
if len(key) > b.opts.MaxKeySize {
|
||||||
|
return ErrKeyTooLarge
|
||||||
|
}
|
||||||
|
if len(value) > b.opts.MaxValueSize {
|
||||||
|
return ErrValueTooLarge
|
||||||
|
}
|
||||||
|
|
||||||
index, err := b.put(key, value)
|
index, err := b.put(key, value)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
|
|
||||||
b.keydir.Add(key, b.curr.id, index, time.Now().Unix())
|
item := b.keydir.Add(key, b.curr.id, index, time.Now().Unix())
|
||||||
|
b.trie.Add(key, item)
|
||||||
|
|
||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
@@ -90,10 +97,21 @@ func (b *Bitcask) Delete(key string) error {
|
|||||||
}
|
}
|
||||||
|
|
||||||
b.keydir.Delete(key)
|
b.keydir.Delete(key)
|
||||||
|
b.trie.Remove(key)
|
||||||
|
|
||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func (b *Bitcask) Scan(prefix string, f func(key string) error) error {
|
||||||
|
keys := b.trie.PrefixSearch(prefix)
|
||||||
|
for _, key := range keys {
|
||||||
|
if err := f(key); err != nil {
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
}
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
|
||||||
func (b *Bitcask) Fold(f func(key string) error) error {
|
func (b *Bitcask) Fold(f func(key string) error) error {
|
||||||
for key := range b.keydir.Keys() {
|
for key := range b.keydir.Keys() {
|
||||||
if err := f(key); err != nil {
|
if err := f(key); err != nil {
|
||||||
@@ -135,39 +153,6 @@ func (b *Bitcask) setMaxDatafileSize(size int64) error {
|
|||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
||||||
func WithMaxDatafileSize(size int64) func(*Bitcask) error {
|
|
||||||
return func(b *Bitcask) error {
|
|
||||||
return b.setMaxDatafileSize(size)
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
func getDatafiles(path string) ([]string, error) {
|
|
||||||
fns, err := filepath.Glob(fmt.Sprintf("%s/*.data", path))
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
sort.Strings(fns)
|
|
||||||
return fns, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func parseIds(fns []string) ([]int, error) {
|
|
||||||
var ids []int
|
|
||||||
for _, fn := range fns {
|
|
||||||
fn = filepath.Base(fn)
|
|
||||||
ext := filepath.Ext(fn)
|
|
||||||
if ext != ".data" {
|
|
||||||
continue
|
|
||||||
}
|
|
||||||
id, err := strconv.ParseInt(strings.TrimSuffix(fn, ext), 10, 32)
|
|
||||||
if err != nil {
|
|
||||||
return nil, err
|
|
||||||
}
|
|
||||||
ids = append(ids, int(id))
|
|
||||||
}
|
|
||||||
sort.Ints(ids)
|
|
||||||
return ids, nil
|
|
||||||
}
|
|
||||||
|
|
||||||
func Merge(path string, force bool) error {
|
func Merge(path string, force bool) error {
|
||||||
fns, err := getDatafiles(path)
|
fns, err := getDatafiles(path)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
@@ -294,9 +279,11 @@ func Open(path string, options ...func(*Bitcask) error) (*Bitcask, error) {
|
|||||||
return nil, err
|
return nil, err
|
||||||
}
|
}
|
||||||
|
|
||||||
keydir := NewKeydir()
|
|
||||||
var datafiles []*Datafile
|
var datafiles []*Datafile
|
||||||
|
|
||||||
|
keydir := NewKeydir()
|
||||||
|
trie := trie.New()
|
||||||
|
|
||||||
for i, fn := range fns {
|
for i, fn := range fns {
|
||||||
df, err := NewDatafile(path, ids[i], true)
|
df, err := NewDatafile(path, ids[i], true)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
@@ -318,7 +305,8 @@ func Open(path string, options ...func(*Bitcask) error) (*Bitcask, error) {
|
|||||||
|
|
||||||
for key := range hint.Keys() {
|
for key := range hint.Keys() {
|
||||||
item, _ := hint.Get(key)
|
item, _ := hint.Get(key)
|
||||||
keydir.Add(key, item.FileID, item.Index, item.Timestamp)
|
_ = keydir.Add(key, item.FileID, item.Index, item.Timestamp)
|
||||||
|
trie.Add(key, item)
|
||||||
}
|
}
|
||||||
} else {
|
} else {
|
||||||
for {
|
for {
|
||||||
@@ -336,7 +324,8 @@ func Open(path string, options ...func(*Bitcask) error) (*Bitcask, error) {
|
|||||||
continue
|
continue
|
||||||
}
|
}
|
||||||
|
|
||||||
keydir.Add(e.Key, ids[i], e.Index, e.Timestamp)
|
item := keydir.Add(e.Key, ids[i], e.Index, e.Timestamp)
|
||||||
|
trie.Add(e.Key, item)
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
@@ -353,10 +342,12 @@ func Open(path string, options ...func(*Bitcask) error) (*Bitcask, error) {
|
|||||||
|
|
||||||
bitcask := &Bitcask{
|
bitcask := &Bitcask{
|
||||||
Flock: flock.New(filepath.Join(path, "lock")),
|
Flock: flock.New(filepath.Join(path, "lock")),
|
||||||
|
opts: NewDefaultOptions(),
|
||||||
path: path,
|
path: path,
|
||||||
curr: curr,
|
curr: curr,
|
||||||
keydir: keydir,
|
keydir: keydir,
|
||||||
datafiles: datafiles,
|
datafiles: datafiles,
|
||||||
|
trie: trie,
|
||||||
|
|
||||||
maxDatafileSize: DefaultMaxDatafileSize,
|
maxDatafileSize: DefaultMaxDatafileSize,
|
||||||
}
|
}
|
||||||
@@ -374,7 +365,7 @@ func Open(path string, options ...func(*Bitcask) error) (*Bitcask, error) {
|
|||||||
}
|
}
|
||||||
|
|
||||||
if !locked {
|
if !locked {
|
||||||
return nil, ErrCannotAcquireLock
|
return nil, ErrDatabaseLocked
|
||||||
}
|
}
|
||||||
|
|
||||||
return bitcask, nil
|
return bitcask, nil
|
||||||
|
|||||||
303
bitcask_test.go
303
bitcask_test.go
@@ -3,7 +3,10 @@ package bitcask
|
|||||||
import (
|
import (
|
||||||
"fmt"
|
"fmt"
|
||||||
"io/ioutil"
|
"io/ioutil"
|
||||||
|
"reflect"
|
||||||
|
"sort"
|
||||||
"strings"
|
"strings"
|
||||||
|
"sync"
|
||||||
"testing"
|
"testing"
|
||||||
|
|
||||||
"github.com/stretchr/testify/assert"
|
"github.com/stretchr/testify/assert"
|
||||||
@@ -127,6 +130,54 @@ func TestDeletedKeys(t *testing.T) {
|
|||||||
})
|
})
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func TestMaxKeySize(t *testing.T) {
|
||||||
|
assert := assert.New(t)
|
||||||
|
|
||||||
|
testdir, err := ioutil.TempDir("", "bitcask")
|
||||||
|
assert.NoError(err)
|
||||||
|
|
||||||
|
var db *Bitcask
|
||||||
|
|
||||||
|
size := 16
|
||||||
|
|
||||||
|
t.Run("Open", func(t *testing.T) {
|
||||||
|
db, err = Open(testdir, WithMaxKeySize(size))
|
||||||
|
assert.NoError(err)
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Put", func(t *testing.T) {
|
||||||
|
key := strings.Repeat(" ", size+1)
|
||||||
|
value := []byte("foobar")
|
||||||
|
err = db.Put(key, value)
|
||||||
|
assert.Error(err)
|
||||||
|
assert.Equal("error: key too large", err.Error())
|
||||||
|
})
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestMaxValueSize(t *testing.T) {
|
||||||
|
assert := assert.New(t)
|
||||||
|
|
||||||
|
testdir, err := ioutil.TempDir("", "bitcask")
|
||||||
|
assert.NoError(err)
|
||||||
|
|
||||||
|
var db *Bitcask
|
||||||
|
|
||||||
|
size := 16
|
||||||
|
|
||||||
|
t.Run("Open", func(t *testing.T) {
|
||||||
|
db, err = Open(testdir, WithMaxValueSize(size))
|
||||||
|
assert.NoError(err)
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Put", func(t *testing.T) {
|
||||||
|
key := "foo"
|
||||||
|
value := []byte(strings.Repeat(" ", size+1))
|
||||||
|
err = db.Put(key, value)
|
||||||
|
assert.Error(err)
|
||||||
|
assert.Equal("error: value too large", err.Error())
|
||||||
|
})
|
||||||
|
}
|
||||||
|
|
||||||
func TestMerge(t *testing.T) {
|
func TestMerge(t *testing.T) {
|
||||||
assert := assert.New(t)
|
assert := assert.New(t)
|
||||||
|
|
||||||
@@ -140,7 +191,7 @@ func TestMerge(t *testing.T) {
|
|||||||
)
|
)
|
||||||
|
|
||||||
t.Run("Open", func(t *testing.T) {
|
t.Run("Open", func(t *testing.T) {
|
||||||
db, err = Open(testdir, MaxDatafileSize(1024))
|
db, err = Open(testdir, WithMaxDatafileSize(1024))
|
||||||
assert.NoError(err)
|
assert.NoError(err)
|
||||||
})
|
})
|
||||||
|
|
||||||
@@ -198,6 +249,138 @@ func TestMerge(t *testing.T) {
|
|||||||
})
|
})
|
||||||
}
|
}
|
||||||
|
|
||||||
|
func TestConcurrent(t *testing.T) {
|
||||||
|
var (
|
||||||
|
db *Bitcask
|
||||||
|
err error
|
||||||
|
)
|
||||||
|
|
||||||
|
assert := assert.New(t)
|
||||||
|
|
||||||
|
testdir, err := ioutil.TempDir("", "bitcask")
|
||||||
|
assert.NoError(err)
|
||||||
|
|
||||||
|
t.Run("Setup", func(t *testing.T) {
|
||||||
|
t.Run("Open", func(t *testing.T) {
|
||||||
|
db, err = Open(testdir)
|
||||||
|
assert.NoError(err)
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Put", func(t *testing.T) {
|
||||||
|
err = db.Put("foo", []byte("bar"))
|
||||||
|
assert.NoError(err)
|
||||||
|
})
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Concurrent", func(t *testing.T) {
|
||||||
|
t.Run("Put", func(t *testing.T) {
|
||||||
|
f := func(wg *sync.WaitGroup, x int) {
|
||||||
|
defer func() {
|
||||||
|
wg.Done()
|
||||||
|
}()
|
||||||
|
for i := 0; i <= 100; i++ {
|
||||||
|
if i%x == 0 {
|
||||||
|
key := fmt.Sprintf("k%d", i)
|
||||||
|
value := []byte(fmt.Sprintf("v%d", i))
|
||||||
|
err := db.Put(key, value)
|
||||||
|
assert.NoError(err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
wg := &sync.WaitGroup{}
|
||||||
|
|
||||||
|
go f(wg, 2)
|
||||||
|
wg.Add(1)
|
||||||
|
|
||||||
|
go f(wg, 3)
|
||||||
|
wg.Add(1)
|
||||||
|
|
||||||
|
wg.Wait()
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Get", func(t *testing.T) {
|
||||||
|
f := func(wg *sync.WaitGroup, N int) {
|
||||||
|
defer func() {
|
||||||
|
wg.Done()
|
||||||
|
}()
|
||||||
|
for i := 0; i <= N; i++ {
|
||||||
|
value, err := db.Get("foo")
|
||||||
|
assert.NoError(err)
|
||||||
|
assert.Equal([]byte("bar"), value)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
wg := &sync.WaitGroup{}
|
||||||
|
|
||||||
|
go f(wg, 100)
|
||||||
|
wg.Add(1)
|
||||||
|
|
||||||
|
go f(wg, 100)
|
||||||
|
wg.Add(1)
|
||||||
|
|
||||||
|
wg.Wait()
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Close", func(t *testing.T) {
|
||||||
|
err = db.Close()
|
||||||
|
assert.NoError(err)
|
||||||
|
})
|
||||||
|
})
|
||||||
|
}
|
||||||
|
|
||||||
|
func TestScan(t *testing.T) {
|
||||||
|
assert := assert.New(t)
|
||||||
|
|
||||||
|
testdir, err := ioutil.TempDir("", "bitcask")
|
||||||
|
assert.NoError(err)
|
||||||
|
|
||||||
|
var db *Bitcask
|
||||||
|
|
||||||
|
t.Run("Setup", func(t *testing.T) {
|
||||||
|
t.Run("Open", func(t *testing.T) {
|
||||||
|
db, err = Open(testdir)
|
||||||
|
assert.NoError(err)
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Put", func(t *testing.T) {
|
||||||
|
var items = map[string][]byte{
|
||||||
|
"1": []byte("1"),
|
||||||
|
"2": []byte("2"),
|
||||||
|
"3": []byte("3"),
|
||||||
|
"food": []byte("pizza"),
|
||||||
|
"foo": []byte("foo"),
|
||||||
|
"fooz": []byte("fooz ball"),
|
||||||
|
"hello": []byte("world"),
|
||||||
|
}
|
||||||
|
for k, v := range items {
|
||||||
|
err = db.Put(k, v)
|
||||||
|
assert.NoError(err)
|
||||||
|
}
|
||||||
|
})
|
||||||
|
})
|
||||||
|
|
||||||
|
t.Run("Scan", func(t *testing.T) {
|
||||||
|
var (
|
||||||
|
vals []string
|
||||||
|
expected = []string{
|
||||||
|
"foo",
|
||||||
|
"fooz ball",
|
||||||
|
"pizza",
|
||||||
|
}
|
||||||
|
)
|
||||||
|
|
||||||
|
err = db.Scan("fo", func(key string) error {
|
||||||
|
val, err := db.Get(key)
|
||||||
|
assert.NoError(err)
|
||||||
|
vals = append(vals, string(val))
|
||||||
|
return nil
|
||||||
|
})
|
||||||
|
sort.Strings(vals)
|
||||||
|
assert.Equal(expected, vals)
|
||||||
|
})
|
||||||
|
}
|
||||||
|
|
||||||
func TestLocking(t *testing.T) {
|
func TestLocking(t *testing.T) {
|
||||||
assert := assert.New(t)
|
assert := assert.New(t)
|
||||||
|
|
||||||
@@ -210,7 +393,12 @@ func TestLocking(t *testing.T) {
|
|||||||
|
|
||||||
_, err = Open(testdir)
|
_, err = Open(testdir)
|
||||||
assert.Error(err)
|
assert.Error(err)
|
||||||
assert.Equal("error: cannot acquire lock", err.Error())
|
assert.Equal("error: database locked", err.Error())
|
||||||
|
}
|
||||||
|
|
||||||
|
type benchmarkTestCase struct {
|
||||||
|
name string
|
||||||
|
size int
|
||||||
}
|
}
|
||||||
|
|
||||||
func BenchmarkGet(b *testing.B) {
|
func BenchmarkGet(b *testing.B) {
|
||||||
@@ -225,20 +413,39 @@ func BenchmarkGet(b *testing.B) {
|
|||||||
}
|
}
|
||||||
defer db.Close()
|
defer db.Close()
|
||||||
|
|
||||||
err = db.Put("foo", []byte("bar"))
|
tests := []benchmarkTestCase{
|
||||||
if err != nil {
|
{"128B", 128},
|
||||||
b.Fatal(err)
|
{"256B", 256},
|
||||||
|
{"512B", 512},
|
||||||
|
{"1K", 1024},
|
||||||
|
{"2K", 2048},
|
||||||
|
{"4K", 4096},
|
||||||
|
{"8K", 8192},
|
||||||
|
{"16K", 16384},
|
||||||
|
{"32K", 32768},
|
||||||
}
|
}
|
||||||
|
|
||||||
b.ResetTimer()
|
for _, tt := range tests {
|
||||||
for i := 0; i < b.N; i++ {
|
b.Run(tt.name, func(b *testing.B) {
|
||||||
val, err := db.Get("foo")
|
key := "foo"
|
||||||
if err != nil {
|
value := []byte(strings.Repeat(" ", tt.size))
|
||||||
b.Fatal(err)
|
|
||||||
}
|
err = db.Put(key, value)
|
||||||
if string(val) != "bar" {
|
if err != nil {
|
||||||
b.Errorf("expected val=bar got=%s", val)
|
b.Fatal(err)
|
||||||
}
|
}
|
||||||
|
|
||||||
|
b.ResetTimer()
|
||||||
|
for i := 0; i < b.N; i++ {
|
||||||
|
val, err := db.Get(key)
|
||||||
|
if err != nil {
|
||||||
|
b.Fatal(err)
|
||||||
|
}
|
||||||
|
if string(val) != string(value) {
|
||||||
|
b.Errorf("unexpected value")
|
||||||
|
}
|
||||||
|
}
|
||||||
|
})
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -254,11 +461,73 @@ func BenchmarkPut(b *testing.B) {
|
|||||||
}
|
}
|
||||||
defer db.Close()
|
defer db.Close()
|
||||||
|
|
||||||
b.ResetTimer()
|
tests := []benchmarkTestCase{
|
||||||
for i := 0; i < b.N; i++ {
|
{"128B", 128},
|
||||||
err := db.Put(fmt.Sprintf("key%d", i), []byte("bar"))
|
{"256B", 256},
|
||||||
|
{"512B", 512},
|
||||||
|
{"1K", 1024},
|
||||||
|
{"2K", 2048},
|
||||||
|
{"4K", 4096},
|
||||||
|
{"8K", 8192},
|
||||||
|
{"16K", 16384},
|
||||||
|
{"32K", 32768},
|
||||||
|
}
|
||||||
|
|
||||||
|
for _, tt := range tests {
|
||||||
|
b.Run(tt.name, func(b *testing.B) {
|
||||||
|
key := "foo"
|
||||||
|
value := []byte(strings.Repeat(" ", tt.size))
|
||||||
|
b.ResetTimer()
|
||||||
|
for i := 0; i < b.N; i++ {
|
||||||
|
err := db.Put(key, value)
|
||||||
|
if err != nil {
|
||||||
|
b.Fatal(err)
|
||||||
|
}
|
||||||
|
}
|
||||||
|
})
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func BenchmarkScan(b *testing.B) {
|
||||||
|
testdir, err := ioutil.TempDir("", "bitcask")
|
||||||
|
if err != nil {
|
||||||
|
b.Fatal(err)
|
||||||
|
}
|
||||||
|
|
||||||
|
db, err := Open(testdir)
|
||||||
|
if err != nil {
|
||||||
|
b.Fatal(err)
|
||||||
|
}
|
||||||
|
defer db.Close()
|
||||||
|
|
||||||
|
var items = map[string][]byte{
|
||||||
|
"1": []byte("1"),
|
||||||
|
"2": []byte("2"),
|
||||||
|
"3": []byte("3"),
|
||||||
|
"food": []byte("pizza"),
|
||||||
|
"foo": []byte("foo"),
|
||||||
|
"fooz": []byte("fooz ball"),
|
||||||
|
"hello": []byte("world"),
|
||||||
|
}
|
||||||
|
for k, v := range items {
|
||||||
|
err := db.Put(k, v)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
b.Fatal(err)
|
b.Fatal(err)
|
||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
var expected = []string{"foo", "food", "fooz"}
|
||||||
|
|
||||||
|
b.ResetTimer()
|
||||||
|
for i := 0; i < b.N; i++ {
|
||||||
|
var keys []string
|
||||||
|
err = db.Scan("fo", func(key string) error {
|
||||||
|
keys = append(keys, key)
|
||||||
|
return nil
|
||||||
|
})
|
||||||
|
sort.Strings(keys)
|
||||||
|
if !reflect.DeepEqual(expected, keys) {
|
||||||
|
b.Fatal(fmt.Errorf("expected keys=#%v got=%#v", expected, keys))
|
||||||
|
}
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|||||||
@@ -35,6 +35,7 @@ func del(path, key string) int {
|
|||||||
log.WithError(err).Error("error opening database")
|
log.WithError(err).Error("error opening database")
|
||||||
return 1
|
return 1
|
||||||
}
|
}
|
||||||
|
defer db.Close()
|
||||||
|
|
||||||
err = db.Delete(key)
|
err = db.Delete(key)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
|
|||||||
@@ -36,6 +36,7 @@ func get(path, key string) int {
|
|||||||
log.WithError(err).Error("error opening database")
|
log.WithError(err).Error("error opening database")
|
||||||
return 1
|
return 1
|
||||||
}
|
}
|
||||||
|
defer db.Close()
|
||||||
|
|
||||||
value, err := db.Get(key)
|
value, err := db.Get(key)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
|
|||||||
@@ -34,6 +34,7 @@ func keys(path string) int {
|
|||||||
log.WithError(err).Error("error opening database")
|
log.WithError(err).Error("error opening database")
|
||||||
return 1
|
return 1
|
||||||
}
|
}
|
||||||
|
defer db.Close()
|
||||||
|
|
||||||
err = db.Fold(func(key string) error {
|
err = db.Fold(func(key string) error {
|
||||||
fmt.Printf("%s\n", key)
|
fmt.Printf("%s\n", key)
|
||||||
|
|||||||
60
cmd/bitcask/scan.go
Normal file
60
cmd/bitcask/scan.go
Normal file
@@ -0,0 +1,60 @@
|
|||||||
|
package main
|
||||||
|
|
||||||
|
import (
|
||||||
|
"fmt"
|
||||||
|
"os"
|
||||||
|
|
||||||
|
log "github.com/sirupsen/logrus"
|
||||||
|
"github.com/spf13/cobra"
|
||||||
|
"github.com/spf13/viper"
|
||||||
|
|
||||||
|
"github.com/prologic/bitcask"
|
||||||
|
)
|
||||||
|
|
||||||
|
var scanCmd = &cobra.Command{
|
||||||
|
Use: "scan <prefix>",
|
||||||
|
Aliases: []string{"search", "find"},
|
||||||
|
Short: "Perform a prefis scan for keys",
|
||||||
|
Long: `This performa a prefix scan for keys starting with the given
|
||||||
|
prefix. This uses a Trie to search for matching keys and returns all matched
|
||||||
|
keys.`,
|
||||||
|
Args: cobra.ExactArgs(1),
|
||||||
|
Run: func(cmd *cobra.Command, args []string) {
|
||||||
|
path := viper.GetString("path")
|
||||||
|
|
||||||
|
prefix := args[0]
|
||||||
|
|
||||||
|
os.Exit(scan(path, prefix))
|
||||||
|
},
|
||||||
|
}
|
||||||
|
|
||||||
|
func init() {
|
||||||
|
RootCmd.AddCommand(scanCmd)
|
||||||
|
}
|
||||||
|
|
||||||
|
func scan(path, prefix string) int {
|
||||||
|
db, err := bitcask.Open(path)
|
||||||
|
if err != nil {
|
||||||
|
log.WithError(err).Error("error opening database")
|
||||||
|
return 1
|
||||||
|
}
|
||||||
|
defer db.Close()
|
||||||
|
|
||||||
|
err = db.Scan(prefix, func(key string) error {
|
||||||
|
value, err := db.Get(key)
|
||||||
|
if err != nil {
|
||||||
|
log.WithError(err).Error("error reading key")
|
||||||
|
return err
|
||||||
|
}
|
||||||
|
|
||||||
|
fmt.Printf("%s\n", string(value))
|
||||||
|
log.WithField("key", key).WithField("value", value).Debug("key/value")
|
||||||
|
return nil
|
||||||
|
})
|
||||||
|
if err != nil {
|
||||||
|
log.WithError(err).Error("error scanning keys")
|
||||||
|
return 1
|
||||||
|
}
|
||||||
|
|
||||||
|
return 0
|
||||||
|
}
|
||||||
@@ -47,6 +47,7 @@ func set(path, key string, value io.Reader) int {
|
|||||||
log.WithError(err).Error("error opening database")
|
log.WithError(err).Error("error opening database")
|
||||||
return 1
|
return 1
|
||||||
}
|
}
|
||||||
|
defer db.Close()
|
||||||
|
|
||||||
data, err := ioutil.ReadAll(value)
|
data, err := ioutil.ReadAll(value)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
|
|||||||
@@ -16,7 +16,7 @@ var (
|
|||||||
bind string
|
bind string
|
||||||
debug bool
|
debug bool
|
||||||
version bool
|
version bool
|
||||||
maxDatafileSize int64
|
maxDatafileSize int
|
||||||
)
|
)
|
||||||
|
|
||||||
func init() {
|
func init() {
|
||||||
@@ -30,7 +30,7 @@ func init() {
|
|||||||
|
|
||||||
flag.StringVarP(&bind, "bind", "b", ":6379", "interface and port to bind to")
|
flag.StringVarP(&bind, "bind", "b", ":6379", "interface and port to bind to")
|
||||||
|
|
||||||
flag.Int64Var(&maxDatafileSize, "max-datafile-size", 1<<20, "maximum datafile size in bytes")
|
flag.IntVar(&maxDatafileSize, "max-datafile-size", 1<<20, "maximum datafile size in bytes")
|
||||||
}
|
}
|
||||||
|
|
||||||
func main() {
|
func main() {
|
||||||
@@ -75,8 +75,8 @@ func main() {
|
|||||||
conn.WriteError("ERR wrong number of arguments for '" + string(cmd.Args[0]) + "' command")
|
conn.WriteError("ERR wrong number of arguments for '" + string(cmd.Args[0]) + "' command")
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
key := string(cmd.Args[0])
|
key := string(cmd.Args[1])
|
||||||
value := cmd.Args[1]
|
value := cmd.Args[2]
|
||||||
err = db.Put(key, value)
|
err = db.Put(key, value)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
conn.WriteString(fmt.Sprintf("ERR: %s", err))
|
conn.WriteString(fmt.Sprintf("ERR: %s", err))
|
||||||
@@ -88,7 +88,7 @@ func main() {
|
|||||||
conn.WriteError("ERR wrong number of arguments for '" + string(cmd.Args[0]) + "' command")
|
conn.WriteError("ERR wrong number of arguments for '" + string(cmd.Args[0]) + "' command")
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
key := string(cmd.Args[0])
|
key := string(cmd.Args[1])
|
||||||
value, err := db.Get(key)
|
value, err := db.Get(key)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
conn.WriteNull()
|
conn.WriteNull()
|
||||||
@@ -100,7 +100,7 @@ func main() {
|
|||||||
conn.WriteError("ERR wrong number of arguments for '" + string(cmd.Args[0]) + "' command")
|
conn.WriteError("ERR wrong number of arguments for '" + string(cmd.Args[0]) + "' command")
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
key := string(cmd.Args[0])
|
key := string(cmd.Args[1])
|
||||||
err := db.Delete(key)
|
err := db.Delete(key)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
conn.WriteInt(0)
|
conn.WriteInt(0)
|
||||||
|
|||||||
18
datafile.go
18
datafile.go
@@ -5,6 +5,7 @@ import (
|
|||||||
"fmt"
|
"fmt"
|
||||||
"os"
|
"os"
|
||||||
"path/filepath"
|
"path/filepath"
|
||||||
|
"sync"
|
||||||
"time"
|
"time"
|
||||||
|
|
||||||
pb "github.com/prologic/bitcask/proto"
|
pb "github.com/prologic/bitcask/proto"
|
||||||
@@ -20,6 +21,8 @@ var (
|
|||||||
)
|
)
|
||||||
|
|
||||||
type Datafile struct {
|
type Datafile struct {
|
||||||
|
sync.RWMutex
|
||||||
|
|
||||||
id int
|
id int
|
||||||
r *os.File
|
r *os.File
|
||||||
w *os.File
|
w *os.File
|
||||||
@@ -102,17 +105,23 @@ func (df *Datafile) Size() (int64, error) {
|
|||||||
return stat.Size(), nil
|
return stat.Size(), nil
|
||||||
}
|
}
|
||||||
|
|
||||||
func (df *Datafile) Read() (pb.Entry, error) {
|
func (df *Datafile) Read() (e pb.Entry, err error) {
|
||||||
var e pb.Entry
|
df.Lock()
|
||||||
|
defer df.Unlock()
|
||||||
|
|
||||||
return e, df.dec.Decode(&e)
|
return e, df.dec.Decode(&e)
|
||||||
}
|
}
|
||||||
|
|
||||||
func (df *Datafile) ReadAt(index int64) (e pb.Entry, err error) {
|
func (df *Datafile) ReadAt(index int64) (e pb.Entry, err error) {
|
||||||
|
df.Lock()
|
||||||
|
defer df.Unlock()
|
||||||
|
|
||||||
_, err = df.r.Seek(index, os.SEEK_SET)
|
_, err = df.r.Seek(index, os.SEEK_SET)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
return df.Read()
|
|
||||||
|
return e, df.dec.Decode(&e)
|
||||||
}
|
}
|
||||||
|
|
||||||
func (df *Datafile) Write(e pb.Entry) (int64, error) {
|
func (df *Datafile) Write(e pb.Entry) (int64, error) {
|
||||||
@@ -130,7 +139,10 @@ func (df *Datafile) Write(e pb.Entry) (int64, error) {
|
|||||||
e.Index = index
|
e.Index = index
|
||||||
e.Timestamp = time.Now().Unix()
|
e.Timestamp = time.Now().Unix()
|
||||||
|
|
||||||
|
df.Lock()
|
||||||
err = df.enc.Encode(&e)
|
err = df.enc.Encode(&e)
|
||||||
|
df.Unlock()
|
||||||
|
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return -1, err
|
return -1, err
|
||||||
}
|
}
|
||||||
|
|||||||
1
go.mod
1
go.mod
@@ -1,6 +1,7 @@
|
|||||||
module github.com/prologic/bitcask
|
module github.com/prologic/bitcask
|
||||||
|
|
||||||
require (
|
require (
|
||||||
|
github.com/derekparker/trie v0.0.0-20180212171413-e608c2733dc7
|
||||||
github.com/gofrs/flock v0.7.1
|
github.com/gofrs/flock v0.7.1
|
||||||
github.com/gogo/protobuf v1.2.1
|
github.com/gogo/protobuf v1.2.1
|
||||||
github.com/golang/protobuf v1.2.0
|
github.com/golang/protobuf v1.2.0
|
||||||
|
|||||||
2
go.sum
2
go.sum
@@ -8,6 +8,8 @@ github.com/davecgh/go-spew v1.1.0 h1:ZDRjVQ15GmhC3fiQ8ni8+OwkZQO4DARzQgrnXU1Liz8
|
|||||||
github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
github.com/davecgh/go-spew v1.1.0/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
||||||
github.com/davecgh/go-spew v1.1.1 h1:vj9j/u1bqnvCEfJOwUhtlOARqs3+rkHYY13jYWTU97c=
|
github.com/davecgh/go-spew v1.1.1 h1:vj9j/u1bqnvCEfJOwUhtlOARqs3+rkHYY13jYWTU97c=
|
||||||
github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
github.com/davecgh/go-spew v1.1.1/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38=
|
||||||
|
github.com/derekparker/trie v0.0.0-20180212171413-e608c2733dc7 h1:Cab9yoTQh1TxObKfis1DzZ6vFLK5kbeenMjRES/UE3o=
|
||||||
|
github.com/derekparker/trie v0.0.0-20180212171413-e608c2733dc7/go.mod h1:D6ICZm05D9VN1n/8iOtBxLpXtoGp6HDFUJ1RNVieOSE=
|
||||||
github.com/fsnotify/fsnotify v1.4.7 h1:IXs+QLmnXW2CcXuY+8Mzv/fWEsPGWxqefPtCP5CnV9I=
|
github.com/fsnotify/fsnotify v1.4.7 h1:IXs+QLmnXW2CcXuY+8Mzv/fWEsPGWxqefPtCP5CnV9I=
|
||||||
github.com/fsnotify/fsnotify v1.4.7/go.mod h1:jwhsz4b93w/PPRr/qN1Yymfu8t87LnFCMoQvtojpjFo=
|
github.com/fsnotify/fsnotify v1.4.7/go.mod h1:jwhsz4b93w/PPRr/qN1Yymfu8t87LnFCMoQvtojpjFo=
|
||||||
github.com/gofrs/flock v0.7.1 h1:DP+LD/t0njgoPBvT5MJLeliUIVQR03hiKR6vezdwHlc=
|
github.com/gofrs/flock v0.7.1 h1:DP+LD/t0njgoPBvT5MJLeliUIVQR03hiKR6vezdwHlc=
|
||||||
|
|||||||
13
keydir.go
13
keydir.go
@@ -25,15 +25,18 @@ func NewKeydir() *Keydir {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
func (k *Keydir) Add(key string, fileid int, index, timestamp int64) {
|
func (k *Keydir) Add(key string, fileid int, index, timestamp int64) Item {
|
||||||
k.Lock()
|
item := Item{
|
||||||
defer k.Unlock()
|
|
||||||
|
|
||||||
k.kv[key] = Item{
|
|
||||||
FileID: fileid,
|
FileID: fileid,
|
||||||
Index: index,
|
Index: index,
|
||||||
Timestamp: timestamp,
|
Timestamp: timestamp,
|
||||||
}
|
}
|
||||||
|
|
||||||
|
k.Lock()
|
||||||
|
k.kv[key] = item
|
||||||
|
k.Unlock()
|
||||||
|
|
||||||
|
return item
|
||||||
}
|
}
|
||||||
|
|
||||||
func (k *Keydir) Get(key string) (Item, bool) {
|
func (k *Keydir) Get(key string) (Item, bool) {
|
||||||
|
|||||||
42
options.go
Normal file
42
options.go
Normal file
@@ -0,0 +1,42 @@
|
|||||||
|
package bitcask
|
||||||
|
|
||||||
|
const (
|
||||||
|
DefaultMaxDatafileSize = 1 << 20 // 1MB
|
||||||
|
DefaultMaxKeySize = 64 // 64 bytes
|
||||||
|
DefaultMaxValueSize = 1 << 16 // 65KB
|
||||||
|
)
|
||||||
|
|
||||||
|
type Options struct {
|
||||||
|
MaxDatafileSize int
|
||||||
|
MaxKeySize int
|
||||||
|
MaxValueSize int
|
||||||
|
}
|
||||||
|
|
||||||
|
func NewDefaultOptions() Options {
|
||||||
|
return Options{
|
||||||
|
MaxDatafileSize: DefaultMaxDatafileSize,
|
||||||
|
MaxKeySize: DefaultMaxKeySize,
|
||||||
|
MaxValueSize: DefaultMaxValueSize,
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func WithMaxDatafileSize(size int) func(*Bitcask) error {
|
||||||
|
return func(b *Bitcask) error {
|
||||||
|
b.opts.MaxDatafileSize = size
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func WithMaxKeySize(size int) func(*Bitcask) error {
|
||||||
|
return func(b *Bitcask) error {
|
||||||
|
b.opts.MaxKeySize = size
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
func WithMaxValueSize(size int) func(*Bitcask) error {
|
||||||
|
return func(b *Bitcask) error {
|
||||||
|
b.opts.MaxValueSize = size
|
||||||
|
return nil
|
||||||
|
}
|
||||||
|
}
|
||||||
@@ -16,26 +16,27 @@ const (
|
|||||||
|
|
||||||
// NewEncoder creates a streaming protobuf encoder.
|
// NewEncoder creates a streaming protobuf encoder.
|
||||||
func NewEncoder(w io.Writer) *Encoder {
|
func NewEncoder(w io.Writer) *Encoder {
|
||||||
return &Encoder{w: w, prefixBuf: make([]byte, prefixSize)}
|
return &Encoder{w}
|
||||||
}
|
}
|
||||||
|
|
||||||
// Encoder wraps an underlying io.Writer and allows you to stream
|
// Encoder wraps an underlying io.Writer and allows you to stream
|
||||||
// proto encodings on it.
|
// proto encodings on it.
|
||||||
type Encoder struct {
|
type Encoder struct {
|
||||||
w io.Writer
|
w io.Writer
|
||||||
prefixBuf []byte
|
|
||||||
}
|
}
|
||||||
|
|
||||||
// Encode takes any proto.Message and streams it to the underlying writer.
|
// Encode takes any proto.Message and streams it to the underlying writer.
|
||||||
// Messages are framed with a length prefix.
|
// Messages are framed with a length prefix.
|
||||||
func (e *Encoder) Encode(msg proto.Message) error {
|
func (e *Encoder) Encode(msg proto.Message) error {
|
||||||
|
prefixBuf := make([]byte, prefixSize)
|
||||||
|
|
||||||
buf, err := proto.Marshal(msg)
|
buf, err := proto.Marshal(msg)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
binary.BigEndian.PutUint64(e.prefixBuf, uint64(len(buf)))
|
binary.BigEndian.PutUint64(prefixBuf, uint64(len(buf)))
|
||||||
|
|
||||||
if _, err := e.w.Write(e.prefixBuf); err != nil {
|
if _, err := e.w.Write(prefixBuf); err != nil {
|
||||||
return errors.Wrap(err, "failed writing length prefix")
|
return errors.Wrap(err, "failed writing length prefix")
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -45,28 +46,26 @@ func (e *Encoder) Encode(msg proto.Message) error {
|
|||||||
|
|
||||||
// NewDecoder creates a streaming protobuf decoder.
|
// NewDecoder creates a streaming protobuf decoder.
|
||||||
func NewDecoder(r io.Reader) *Decoder {
|
func NewDecoder(r io.Reader) *Decoder {
|
||||||
return &Decoder{
|
return &Decoder{r: r}
|
||||||
r: r,
|
|
||||||
prefixBuf: make([]byte, prefixSize),
|
|
||||||
}
|
|
||||||
}
|
}
|
||||||
|
|
||||||
// Decoder wraps an underlying io.Reader and allows you to stream
|
// Decoder wraps an underlying io.Reader and allows you to stream
|
||||||
// proto decodings on it.
|
// proto decodings on it.
|
||||||
type Decoder struct {
|
type Decoder struct {
|
||||||
r io.Reader
|
r io.Reader
|
||||||
prefixBuf []byte
|
|
||||||
}
|
}
|
||||||
|
|
||||||
// Decode takes a proto.Message and unmarshals the next payload in the
|
// Decode takes a proto.Message and unmarshals the next payload in the
|
||||||
// underlying io.Reader. It returns an EOF when it's done.
|
// underlying io.Reader. It returns an EOF when it's done.
|
||||||
func (d *Decoder) Decode(v proto.Message) error {
|
func (d *Decoder) Decode(v proto.Message) error {
|
||||||
_, err := io.ReadFull(d.r, d.prefixBuf)
|
prefixBuf := make([]byte, prefixSize)
|
||||||
|
|
||||||
|
_, err := io.ReadFull(d.r, prefixBuf)
|
||||||
if err != nil {
|
if err != nil {
|
||||||
return err
|
return err
|
||||||
}
|
}
|
||||||
|
|
||||||
n := binary.BigEndian.Uint64(d.prefixBuf)
|
n := binary.BigEndian.Uint64(prefixBuf)
|
||||||
|
|
||||||
buf := make([]byte, n)
|
buf := make([]byte, n)
|
||||||
|
|
||||||
|
|||||||
36
utils.go
Normal file
36
utils.go
Normal file
@@ -0,0 +1,36 @@
|
|||||||
|
package bitcask
|
||||||
|
|
||||||
|
import (
|
||||||
|
"fmt"
|
||||||
|
"path/filepath"
|
||||||
|
"sort"
|
||||||
|
"strconv"
|
||||||
|
"strings"
|
||||||
|
)
|
||||||
|
|
||||||
|
func getDatafiles(path string) ([]string, error) {
|
||||||
|
fns, err := filepath.Glob(fmt.Sprintf("%s/*.data", path))
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
sort.Strings(fns)
|
||||||
|
return fns, nil
|
||||||
|
}
|
||||||
|
|
||||||
|
func parseIds(fns []string) ([]int, error) {
|
||||||
|
var ids []int
|
||||||
|
for _, fn := range fns {
|
||||||
|
fn = filepath.Base(fn)
|
||||||
|
ext := filepath.Ext(fn)
|
||||||
|
if ext != ".data" {
|
||||||
|
continue
|
||||||
|
}
|
||||||
|
id, err := strconv.ParseInt(strings.TrimSuffix(fn, ext), 10, 32)
|
||||||
|
if err != nil {
|
||||||
|
return nil, err
|
||||||
|
}
|
||||||
|
ids = append(ids, int(id))
|
||||||
|
}
|
||||||
|
sort.Ints(ids)
|
||||||
|
return ids, nil
|
||||||
|
}
|
||||||
Reference in New Issue
Block a user