2021年12月16日 星期四
2021年8月9日 星期一
Build qt project with Command Prompt
Open Qt console window
1. c:\Program Files (x86)\Microsoft Visual Studio\2017\Community\VC\Auxiliary\Build\vcvarsall.bat amd64
2. (if there is no *.pro) qmake -project
3. qmake *.pro (Create Makefile.*)
4. c:\Qt\Qt5.13.0\Tools\QtCreator\bin\jom.exe -j 4 -f Makefile.Release
2021年8月3日 星期二
[IT邦文章] 如何決定 NN中 hidden layer 數以及每層的 neurons?
https://ithelp.ithome.com.tw/questions/10195758
高手回答:
閒聊,關鍵其實不是你講的那些參數,
而是模型在 testing data 上面的表現到底怎麼樣?(這是一句幹話)
理論上,我說理論上,隱藏層越多越好啊、神經元越多越好啊,但跑得動嗎?
同時還得考量若要達到特定數字的epoch所耗的時間喔~
機器學習的本質,在於探索某個特定範圍的變數,
然後嘗試找出最佳的參數,好讓 training data 的正確率趨近100%,或誤差接近0。
再運用相同的模型去看 testing data 有沒有相同的效果,是否過擬。
但在做上面這件事情時......
機器學習本身你所採用的那個學習方法,所使用的參數內容,卻是你給定的。
所以這邊延伸出一件很哲學的事情:
是不是應該弄一套更大的機器學習,去決定一套機器學習的參數該如何訂定?
是不是應該弄一套又更大的機器學習,去決定那套更大的機器學習的參數如何訂定?
所以你就知道,這種層層堆疊的「尋找最佳參數」的過程,是無止盡的,
換句話說,在硬體技術有更顯著的突破之前,這個哲學議題是大哉問,無解的。
話說回來,目前實務上了不起能做到的,是讓機器學習自己本身嘗試不同的參數,
最後將所有的結果做比較之後,返回一個最佳設定的機器學習參數,
同時告訴你這參數之下,在該份data的最佳模型(參數)是什麼。
但縱使如此,我們也只會嘗試某幾個特定的數字,
例如隱藏層跑[3,4,5]層、神經元跑[2,3,4,5,6]個,之類的,
但光是如此,那個運作時間就已經是會跑到懷疑人生的狀態。
所以應該這樣問,在你已經用極短的時間嘗試出90%的模型正確率時,
你還願意花上200倍的時間,去增加僅僅1%的正確率嗎?
這是邊際效益的問題,也是沒有人去做「尋找最佳參數」的原因。
那到底第一時間拿到資料到底該用什麼參數?直覺之外,就剩下經驗累積了吧。
2021年7月6日 星期二
2021年6月22日 星期二
[連結] 我们可能已见证第一场人工智能战争
https://mp.weixin.qq.com/s?__biz=MjM5MTQzNzU2NA==&mid=2651701660&idx=1&sn=1acd7d3f85ce4288153e92731ac66ed1&chksm=bd4ce60f8a3b6f19712121f59a862acd8809b87da96df5577047944f9f2a9a141a7e65816ec1&scene=27
2021年5月11日 星期二
2021年4月7日 星期三
2021年3月19日 星期五
2021年3月18日 星期四
無法就事論事的人逼問政敵說你怎麼可以把這兩件事情切開來談?
無法就事論事的人逼問政敵說你怎麼可以把這兩件事情切開來談?
.... 我還想問你為啥老是把兩件不相關的事情綁在一起看咧
----
只看標籤過活的人 v.s. 不看標籤過活的人
----
討論分析核電比例跟綠電比例跟火電比例這種就是不能切開來看因為是『比例』會互相影響
討論分析福島震災跟核災人數這種就是不能合起來看因為前者起因是地震海嘯後者起因是東電高層官僚文化
邏輯循環謬誤當道
邏輯循環謬誤
看的穿的人就是看的穿
看不穿的人永遠在循環之中團團轉,每轉一圈,對這個結論就多一分信心
邏輯循環謬誤的論點,在拆解時的麻煩之處在於如果要證明其為錯誤 (且避免被讀者挑出毛病質疑XX地方沒提到,XX地方是盲點) 就必須順著它走一整圈,文章長度會非常長,造成讀者失去耐心棄讀,也等於是此邏輯循環謬誤的始作俑者的勝利
2021年3月17日 星期三
2021年2月25日 星期四
機器學習領域的翻譯模型訓練
https://ithelp.ithome.com.tw/articles/10194403
https://leemeng.tw/neural-machine-translation-with-transformer-and-tensorflow2.html