forked from cemfi/hannds
-
Notifications
You must be signed in to change notification settings - Fork 1
/
train_midi_magenta.sh
45 lines (39 loc) · 3.34 KB
/
train_midi_magenta.sh
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
#!/usr/bin/env bash
source activate neumus
python --version
start=1
end=10
for ((i=start; i<=end; i++))
do
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type GRU --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type LSTM --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type GRU --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type LSTM --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type GRU
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type LSTM
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type GRU
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type LSTM
done
for ((i=start; i<=end; i++))
do
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type GRU --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type LSTM --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type GRU --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type LSTM --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type GRU
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type LSTM
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type GRU
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type LSTM
done
for ((i=start; i<=end; i++))
do
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type GRU --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type LSTM --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type GRU --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type LSTM --bidirectional
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type GRU
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network MIDI --rnn_type LSTM
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type GRU
python train_hannds.py --hidden_size 70 --layers 2 --length 100 --cuda --cv_partition $i --network Magenta --rnn_type LSTM
done
while true; do sleep 10000; done