|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 13.083333333333334, |
|
"eval_steps": 500, |
|
"global_step": 78, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.16666666666666666, |
|
"grad_norm": 5.4836907386779785, |
|
"learning_rate": 2e-05, |
|
"loss": 3.0942, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.3333333333333333, |
|
"grad_norm": 5.522416114807129, |
|
"learning_rate": 4e-05, |
|
"loss": 3.3755, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"grad_norm": 5.055008411407471, |
|
"learning_rate": 6e-05, |
|
"loss": 2.6756, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.6666666666666666, |
|
"grad_norm": 5.317052364349365, |
|
"learning_rate": 8e-05, |
|
"loss": 3.4146, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.8333333333333334, |
|
"grad_norm": 7.486364841461182, |
|
"learning_rate": 0.0001, |
|
"loss": 3.1919, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"grad_norm": 10.191019058227539, |
|
"learning_rate": 0.00012, |
|
"loss": 2.98, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 1.1666666666666667, |
|
"grad_norm": 4.881992816925049, |
|
"learning_rate": 0.00014, |
|
"loss": 2.5348, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 1.3333333333333333, |
|
"grad_norm": 4.569235324859619, |
|
"learning_rate": 0.00016, |
|
"loss": 2.4673, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"grad_norm": 1.1086317300796509, |
|
"learning_rate": 0.00018, |
|
"loss": 2.3632, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 3.366159677505493, |
|
"learning_rate": 0.0002, |
|
"loss": 2.0835, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 1.8333333333333335, |
|
"grad_norm": 5.062276363372803, |
|
"learning_rate": 0.00019990989662046818, |
|
"loss": 2.0823, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"grad_norm": 2.706953763961792, |
|
"learning_rate": 0.00019963974885425266, |
|
"loss": 1.8872, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 2.1666666666666665, |
|
"grad_norm": 3.3672051429748535, |
|
"learning_rate": 0.00019919004352588767, |
|
"loss": 1.6459, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 2.3333333333333335, |
|
"grad_norm": 2.7808966636657715, |
|
"learning_rate": 0.00019856159103477086, |
|
"loss": 1.6596, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"grad_norm": 1.185718059539795, |
|
"learning_rate": 0.00019775552389476864, |
|
"loss": 1.3797, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 2.6666666666666665, |
|
"grad_norm": 3.4101736545562744, |
|
"learning_rate": 0.0001967732946933499, |
|
"loss": 1.3561, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 2.8333333333333335, |
|
"grad_norm": 2.1325340270996094, |
|
"learning_rate": 0.00019561667347392508, |
|
"loss": 1.2729, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"grad_norm": 0.8240509629249573, |
|
"learning_rate": 0.00019428774454610843, |
|
"loss": 1.1304, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 3.1666666666666665, |
|
"grad_norm": 2.234182596206665, |
|
"learning_rate": 0.00019278890272965096, |
|
"loss": 1.254, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 0.9731316566467285, |
|
"learning_rate": 0.0001911228490388136, |
|
"loss": 0.9326, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 3.5, |
|
"grad_norm": 1.4634690284729004, |
|
"learning_rate": 0.00018929258581495685, |
|
"loss": 1.0493, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 3.6666666666666665, |
|
"grad_norm": 0.8387559056282043, |
|
"learning_rate": 0.00018730141131611882, |
|
"loss": 1.0178, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 3.8333333333333335, |
|
"grad_norm": 0.4008520245552063, |
|
"learning_rate": 0.00018515291377333112, |
|
"loss": 0.8662, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"grad_norm": 0.5829432606697083, |
|
"learning_rate": 0.00018285096492438424, |
|
"loss": 1.0601, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 4.166666666666667, |
|
"grad_norm": 0.4809369444847107, |
|
"learning_rate": 0.00018039971303669407, |
|
"loss": 0.8911, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 4.333333333333333, |
|
"grad_norm": 0.43883201479911804, |
|
"learning_rate": 0.00017780357543184397, |
|
"loss": 0.9469, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 4.5, |
|
"grad_norm": 0.36929503083229065, |
|
"learning_rate": 0.00017506723052527242, |
|
"loss": 0.6922, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 4.666666666666667, |
|
"grad_norm": 0.838331401348114, |
|
"learning_rate": 0.00017219560939545246, |
|
"loss": 0.8335, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 4.833333333333333, |
|
"grad_norm": 0.4128212332725525, |
|
"learning_rate": 0.00016919388689775464, |
|
"loss": 0.881, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 0.4089340269565582, |
|
"learning_rate": 0.00016606747233900815, |
|
"loss": 0.7877, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 5.166666666666667, |
|
"grad_norm": 0.4597572386264801, |
|
"learning_rate": 0.00016282199972956425, |
|
"loss": 0.7988, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 5.333333333333333, |
|
"grad_norm": 0.7422643303871155, |
|
"learning_rate": 0.00015946331763042867, |
|
"loss": 0.6314, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 5.5, |
|
"grad_norm": 0.27216923236846924, |
|
"learning_rate": 0.00015599747861375955, |
|
"loss": 0.6304, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 5.666666666666667, |
|
"grad_norm": 0.30543801188468933, |
|
"learning_rate": 0.00015243072835572318, |
|
"loss": 0.7545, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 5.833333333333333, |
|
"grad_norm": 0.27076226472854614, |
|
"learning_rate": 0.00014876949438136347, |
|
"loss": 0.628, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 6.041666666666667, |
|
"grad_norm": 0.3263254463672638, |
|
"learning_rate": 0.00014502037448176734, |
|
"loss": 0.8235, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 6.208333333333333, |
|
"grad_norm": 0.44342947006225586, |
|
"learning_rate": 0.0001411901248243993, |
|
"loss": 0.4889, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 6.375, |
|
"grad_norm": 0.5531820058822632, |
|
"learning_rate": 0.00013728564777803088, |
|
"loss": 0.4743, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 6.541666666666667, |
|
"grad_norm": 0.44343772530555725, |
|
"learning_rate": 0.00013331397947420576, |
|
"loss": 0.6212, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 6.708333333333333, |
|
"grad_norm": 0.3939581513404846, |
|
"learning_rate": 0.00012928227712765504, |
|
"loss": 0.4682, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 6.875, |
|
"grad_norm": 0.27797481417655945, |
|
"learning_rate": 0.00012519780613851254, |
|
"loss": 0.6314, |
|
"step": 41 |
|
}, |
|
{ |
|
"epoch": 7.041666666666667, |
|
"grad_norm": 0.24232299625873566, |
|
"learning_rate": 0.00012106792699957263, |
|
"loss": 0.4236, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 7.208333333333333, |
|
"grad_norm": 0.48353126645088196, |
|
"learning_rate": 0.00011690008203218493, |
|
"loss": 0.5427, |
|
"step": 43 |
|
}, |
|
{ |
|
"epoch": 7.375, |
|
"grad_norm": 0.2417798489332199, |
|
"learning_rate": 0.00011270178197468789, |
|
"loss": 0.4153, |
|
"step": 44 |
|
}, |
|
{ |
|
"epoch": 7.541666666666667, |
|
"grad_norm": 0.29872801899909973, |
|
"learning_rate": 0.00010848059244755093, |
|
"loss": 0.4355, |
|
"step": 45 |
|
}, |
|
{ |
|
"epoch": 7.708333333333333, |
|
"grad_norm": 0.24514973163604736, |
|
"learning_rate": 0.00010424412031961484, |
|
"loss": 0.4455, |
|
"step": 46 |
|
}, |
|
{ |
|
"epoch": 7.875, |
|
"grad_norm": 0.2170785814523697, |
|
"learning_rate": 0.0001, |
|
"loss": 0.4635, |
|
"step": 47 |
|
}, |
|
{ |
|
"epoch": 8.041666666666666, |
|
"grad_norm": 0.27662786841392517, |
|
"learning_rate": 9.57558796803852e-05, |
|
"loss": 0.4287, |
|
"step": 48 |
|
}, |
|
{ |
|
"epoch": 8.208333333333334, |
|
"grad_norm": 0.22056028246879578, |
|
"learning_rate": 9.151940755244912e-05, |
|
"loss": 0.3974, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 8.375, |
|
"grad_norm": 0.38164207339286804, |
|
"learning_rate": 8.729821802531212e-05, |
|
"loss": 0.4199, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 8.541666666666666, |
|
"grad_norm": 0.6282327175140381, |
|
"learning_rate": 8.309991796781511e-05, |
|
"loss": 0.396, |
|
"step": 51 |
|
}, |
|
{ |
|
"epoch": 8.708333333333334, |
|
"grad_norm": 0.6206014752388, |
|
"learning_rate": 7.89320730004274e-05, |
|
"loss": 0.3838, |
|
"step": 52 |
|
}, |
|
{ |
|
"epoch": 8.875, |
|
"grad_norm": 0.26180949807167053, |
|
"learning_rate": 7.48021938614875e-05, |
|
"loss": 0.2699, |
|
"step": 53 |
|
}, |
|
{ |
|
"epoch": 9.041666666666666, |
|
"grad_norm": 0.24584798514842987, |
|
"learning_rate": 7.071772287234497e-05, |
|
"loss": 0.3301, |
|
"step": 54 |
|
}, |
|
{ |
|
"epoch": 9.208333333333334, |
|
"grad_norm": 0.2175927311182022, |
|
"learning_rate": 6.668602052579424e-05, |
|
"loss": 0.3253, |
|
"step": 55 |
|
}, |
|
{ |
|
"epoch": 9.375, |
|
"grad_norm": 0.31466177105903625, |
|
"learning_rate": 6.271435222196916e-05, |
|
"loss": 0.2899, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 9.541666666666666, |
|
"grad_norm": 0.2206808626651764, |
|
"learning_rate": 5.880987517560075e-05, |
|
"loss": 0.3447, |
|
"step": 57 |
|
}, |
|
{ |
|
"epoch": 9.708333333333334, |
|
"grad_norm": 0.30399656295776367, |
|
"learning_rate": 5.497962551823266e-05, |
|
"loss": 0.3008, |
|
"step": 58 |
|
}, |
|
{ |
|
"epoch": 9.875, |
|
"grad_norm": 0.2424880862236023, |
|
"learning_rate": 5.123050561863657e-05, |
|
"loss": 0.4017, |
|
"step": 59 |
|
}, |
|
{ |
|
"epoch": 10.041666666666666, |
|
"grad_norm": 0.1822863221168518, |
|
"learning_rate": 4.756927164427685e-05, |
|
"loss": 0.29, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 10.208333333333334, |
|
"grad_norm": 0.2865781784057617, |
|
"learning_rate": 4.4002521386240466e-05, |
|
"loss": 0.2568, |
|
"step": 61 |
|
}, |
|
{ |
|
"epoch": 10.375, |
|
"grad_norm": 0.45866575837135315, |
|
"learning_rate": 4.053668236957134e-05, |
|
"loss": 0.3122, |
|
"step": 62 |
|
}, |
|
{ |
|
"epoch": 10.541666666666666, |
|
"grad_norm": 0.23878410458564758, |
|
"learning_rate": 3.717800027043576e-05, |
|
"loss": 0.2366, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 10.708333333333334, |
|
"grad_norm": 0.17364925146102905, |
|
"learning_rate": 3.393252766099187e-05, |
|
"loss": 0.2723, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 10.875, |
|
"grad_norm": 0.21729761362075806, |
|
"learning_rate": 3.080611310224539e-05, |
|
"loss": 0.3988, |
|
"step": 65 |
|
}, |
|
{ |
|
"epoch": 11.083333333333334, |
|
"grad_norm": 0.32344043254852295, |
|
"learning_rate": 2.7804390604547557e-05, |
|
"loss": 0.2767, |
|
"step": 66 |
|
}, |
|
{ |
|
"epoch": 11.25, |
|
"grad_norm": 0.18337799608707428, |
|
"learning_rate": 2.493276947472756e-05, |
|
"loss": 0.3044, |
|
"step": 67 |
|
}, |
|
{ |
|
"epoch": 11.416666666666666, |
|
"grad_norm": 0.171830952167511, |
|
"learning_rate": 2.2196424568156073e-05, |
|
"loss": 0.2148, |
|
"step": 68 |
|
}, |
|
{ |
|
"epoch": 11.583333333333334, |
|
"grad_norm": 0.2572508156299591, |
|
"learning_rate": 1.9600286963305957e-05, |
|
"loss": 0.2333, |
|
"step": 69 |
|
}, |
|
{ |
|
"epoch": 11.75, |
|
"grad_norm": 0.3048519790172577, |
|
"learning_rate": 1.7149035075615794e-05, |
|
"loss": 0.2655, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 11.916666666666666, |
|
"grad_norm": 0.28241613507270813, |
|
"learning_rate": 1.4847086226668872e-05, |
|
"loss": 0.2717, |
|
"step": 71 |
|
}, |
|
{ |
|
"epoch": 12.083333333333334, |
|
"grad_norm": 0.2006816565990448, |
|
"learning_rate": 1.2698588683881186e-05, |
|
"loss": 0.2703, |
|
"step": 72 |
|
}, |
|
{ |
|
"epoch": 12.25, |
|
"grad_norm": 1.081545352935791, |
|
"learning_rate": 1.0707414185043163e-05, |
|
"loss": 0.2359, |
|
"step": 73 |
|
}, |
|
{ |
|
"epoch": 12.416666666666666, |
|
"grad_norm": 0.27483949065208435, |
|
"learning_rate": 8.87715096118642e-06, |
|
"loss": 0.2933, |
|
"step": 74 |
|
}, |
|
{ |
|
"epoch": 12.583333333333334, |
|
"grad_norm": 0.2161029428243637, |
|
"learning_rate": 7.211097270349066e-06, |
|
"loss": 0.26, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 12.75, |
|
"grad_norm": 0.1892326921224594, |
|
"learning_rate": 5.71225545389158e-06, |
|
"loss": 0.1889, |
|
"step": 76 |
|
}, |
|
{ |
|
"epoch": 12.916666666666666, |
|
"grad_norm": 0.27127891778945923, |
|
"learning_rate": 4.383326526074916e-06, |
|
"loss": 0.2222, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 13.083333333333334, |
|
"grad_norm": 0.25778645277023315, |
|
"learning_rate": 3.226705306650113e-06, |
|
"loss": 0.2471, |
|
"step": 78 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 84, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 14, |
|
"save_steps": 6, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 160914305187840.0, |
|
"train_batch_size": 1, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|