人生に少しのランダム性を加える

作成者:カランカラン
💡

質問やフィードバックがありましたら、フォームからお願いします

目次

    本文は台湾華語で、ChatGPT で翻訳している記事なので、不確かな部分や間違いがあるかもしれません。ご了承ください

    ランダム勾配降下法(Stochastic Gradient Descent、SGD)は、機械学習や深層学習を学ぶすべての人が必ず出会うアルゴリズムです。このアルゴリズムの目的は、関数の局所最小値を見つけることで、通常は損失関数(loss function)に関してです。

    その時、私はそれがとても不思議に思えました。一般的な勾配降下法には計算量の問題があり、訓練中にサンプル数が通常非常に多く、各イテレーションで全てのサンプルを計算する必要がありますが、これは効率が悪いだけでなく、追加のメモリも必要とします。

    しかし、少し修正するだけで、一度に全てを計算するのではなく、ランダムに一つのサンプルを選んでlossを計算することで、精度は低いかもしれませんが、最小値を見つけることができます。または、ランダムに数個のサンプルを選んでミニバッチを作ることで、性能を犠牲にすることなく目的を達成することができます。

    最近、私は人生も同じようにあるべきだと感じています。自分に少しのランダム性を加えることは、私が仕事を辞める大きなきっかけの一つでもあります。

    正直に言うと、ここの給料と福利厚生はかなり良い方です。何も事故がなければ、直接退職するまでいることも可能です。しかし、私は自分を仕事に閉じ込め続け、生活が単調なルーチンになり、毎月の給料が毒になってしまうことを想像することができませんでした。

    もちろん、会社で何も学んでいないわけではありません。この数年間の成長は、物事をより広い視野で見ることができるようになりました。まるで認識が一層上に上がったような感覚です。確かに言えることは、5年前の自分には技術職以外の考えは絶対になかったということです。

    人生の次のステップに対してまだ多くの恐れがあるとはいえ、最近好んで観るアニメ — チ.地球運動についての中の一節で表現することができます:「怖くない人生など、その本質を欠く」

    恐れのない人生はその本質を欠いている

    恐れは未知から来ますが、人生は本来から未知数で満ちています。将来は起業するかもしれませんし、音楽をやるかもしれませんし、店を開くかもしれませんし、他の国に行くかもしれません。選択肢は多く、未知数で満ちています。深い山の中では全体を見ることはできませんが、できることは少しのランダム性を加えて、勾配降下法が私に最適な解を見つけてくれることを期待することです。

    この記事が役に立ったと思ったら、下のリンクからコーヒーを奢ってくれると嬉しいです ☕ 私の普通の一日が輝かしいものになります ✨

    Buy me a coffee