™ Profile

@tmaehara

12,188
Followers
1,057
Following
1,349
Media
21,807
Statuses

本拠地 (bluesky)

Joined June 2009
Don't wanna be here? Send us removal request.
@tmaehara
6 years
コンビニで「肉まんください、Tポイントカードありません、袋いりません、お手拭きいりません、レシートいりません」とすべて先回りしたら店員がバグって「お箸は何膳おつけしますか」と聞いてきた
129
37K
80K
@tmaehara
6 years
国際会議スライドにいらすとやを使っていたら、発表後に「日本人が揃って使ってるあのイラストはなんなんだ」と質問されたことがある
6
9K
21K
@tmaehara
3 years
とても面白かった。冒頭のこの部分で引き込まれた。
Tweet media one
7
7K
17K
@tmaehara
5 years
前職で学生を事務に連れていったとき、事務氏が学生に横柄な態度をとっていたので、わざと学生にすごい丁寧語で話しかけてみたら事務氏がバグってわたしにも横柄になったのを思い出す。
4
2K
6K
@tmaehara
3 years
DeepL の誤訳に気づけない人は自分で読んでもどうせ誤訳するので気にすることなく使えばいいと思います.
2
495
3K
@tmaehara
5 years
能力の高い人が一ヶ月本気で勉強したら能力の低い人の十年を超える、みたいなことはわりとよくあると思います。
2
366
3K
@tmaehara
4 years
wheelcake (和訳すると戦争が起きる)
Tweet media one
9
912
2K
@tmaehara
6 years
「log(1+2+3) = log(1) + log(2) + log(3) を示せ」 という問題が流れてきた.これできない人が結構いそうだ.
15
1K
2K
@tmaehara
2 years
「大抵の日本人は水族館に行ったら泳いでる魚に対して『おいしそう』と発言する」という事実を同僚に伝えたらめっちゃ笑いが取れた
6
406
2K
@tmaehara
5 years
【朗報】インドの入国審査で「Hardy-Ramanujan number を知っているか?その特徴付けは何だ?」と聞かれ無事回答成功
4
442
1K
@tmaehara
6 years
アメリカvsソ連は組合せ最適化にも有名な話があります.ソ連は鉄道網でどうやって最大輸送するか(最大フロー問題)をやっていたのに対し,アメリカはどうやって鉄道網を分断するか(最小カット問題)やっており,数学的にはこれらは同じ最適化問題の主問題・双対問題の関係にあった,なんてのがあります.
2
526
1K
@tmaehara
5 years
大学院の線形代数の演習に 3x3 対称行列の行列式を計算する課題があり,解説の際に「変数は |a b c| |b d e| |c e f| ではなく |x a b| |a y c| |b c z| とおけ」と教わった.後者は展開すると xyz + 2abc - x c^2 - y b^2 - z a^2 となって,対称性のおかげでケアレスミスが減るため.
0
256
1K
@tmaehara
4 years
若手研究者が欲しいの研究費700万じゃなくてお賃金700万だと思うんですが……
3
268
1K
@tmaehara
1 year
たまに YouTube にログインせずにアクセスすると,あまりの推薦の酷さに絶句してしまう
Tweet media one
3
178
1K
@tmaehara
3 years
アカデミアから民間に映るのが「転落」みたいに思われていた頃があった(今も一部ある)んだけど,「転落」というのは高いところから低いところにいくときに使う言葉なので,アカデミアが低迷した結果「転落」ではなく「ステップアップ」になってしまった
6
281
1K
@tmaehara
1 year
「クレジットカードの手数料がしんどいからクレジットカード決済は導入したくなかったけど,売り上げに深刻な影響が出るから仕方なく導入した」って近所のケバブ屋の人が言ってた.
1
149
1K
@tmaehara
5 years
褒めてから指摘するのが良いと学んだ卒論指導教員「いいねえ!真っ白で綺麗な論文だねえ!何か書くともっといいと思うよ!」
0
347
1K
@tmaehara
1 year
CharCCP 草
Tweet media one
5
408
1K
@tmaehara
3 years
理工系論文では DeepL に誤解されるような英文は書くべきじゃないので,結果として DeepL は論文翻訳にすごく強い
2
122
957
@tmaehara
2 years
確率って数学としては「総和1の非負重み」でしかないから、実現象に対して「XXが起きる確率は80%」などと言うときはこれが正確には何を意味しているのかを決めてやらないといけない。この決め方の流儀に色々名前がついてる。
1
175
940
@tmaehara
6 years
研究室選びは第ゼロステップとして「人格破綻者を避ける」が必要
3
257
804
@tmaehara
1 year
ChatGPTの能力を最大限に引き出す最強テクニックを紹介! 1. 英語で書く
3
104
867
@tmaehara
5 years
文科省の方と話すと研究・研究者の実状をそれなりに正確に理解されており、いろいろ察して辛くなる
0
277
813
@tmaehara
1 year
「ストライキで電車が使えずいっぱい歩いたから健康��なっちゃった」みたいなのが無意識に口から出てきたので,やっぱりイギリスの水を飲むのはよくない.
1
86
777
@tmaehara
3 years
自分が書いたコードに他人が「これもっと良い書き方ある」みたいに指摘を入れてくれる環境快適すぎて笑う。なんだこれ。
1
75
757
@tmaehara
3 years
スーパーで蜂蜜コーナーを見てたら店員さんに声をかけられたので「種類いっぱいあって選ぶの難しい」って聞いてみたら、店員さん満面の笑顔で「一緒!全部一緒!パッケージが違うだけ!値段の違いは広告費!考えてみろよ、蜂蜜どこから来るんだ?同じ蜂だぜ?一緒だろ!」って演説された
0
181
747
@tmaehara
7 years
MIT購買部
Tweet media one
5
700
680
@tmaehara
3 years
「特任准教授」という名前でも,あのポストは研究ポストじゃないし,あのポストが無くなっても研究ポストはできないし,あのポストのおかげで資金的に余裕ができる可能性もあると思うんだけど,まあ自分が欲しいポスト(と同じ名前のポスト)を知名度で取る人を見たら辛くなるよね.
1
128
728
@tmaehara
4 years
Facebook at London に行くことになりました
34
52
706
@tmaehara
5 years
すごい論文を見つけた.参考文献欄が
Tweet media one
1
273
639
@tmaehara
3 years
DNNの学習では良いパラメタを見出すことが重要となる.従来パラメタ探索には論文出版を餌にして院生に探索させる手法 (grad student descent) [1] が広く用いられてきた.本研究ではパラメタ探索のためのUIを新たに提案し,学部学生でも容易にパラメタ探索できる手法 (undergrad student descent) を提
1
187
704
@tmaehara
2 years
数学の独学で難しいのって「わかった」というにはどの程度の精度が必要かを擦り合わせる部分だと思ってる.数学科ゼミの経験者と未経験者で基準がだいぶ違うと思う.
2
88
642
@tmaehara
5 years
マジレスすると、論文の参考文献に載せるのは「自分が参考にした文献」じゃなくて「本文を補強する文献」なので、全部自分で考えた場合でも無になるのはヤバイ。
1
117
646
@tmaehara
6 years
「ひとつのことを長時間考えられる」のは特殊な能力で、多くの人はそれを備えていない。ということをわりと最近知った。
2
202
592
@tmaehara
5 years
正解のない問題を解く定石は「適切に解けるように切り分ける」だと思っていて,これをうまくやるには「答えがある問題をきちんと解く能力」が重要だと思ってる.
0
162
617
@tmaehara
2 years
数年前、某社のインタビューで「うまくいくデータなら大抵何やってもうまくいくしうまくいかないデータなら大抵何やってもうまくいかないから初手は数%の差とか気にせずにだいたい GBDT かロジスティック回帰」って伝えたら、実務わかってないってフィードバックをもらって悲しくなっちゃった。
1
79
653
@tmaehara
1 year
2017年頃に応用数理学会で「AIの説明可能性はAIじゃなくて人間側の問題」って趣旨のコメントをした記憶があるんだけど,ChatGPTで一段社会のステージが変わった(AIの説明を人間が受け入れるようになった)ように思う.顧客が本当に必要だったのは精度(説明)じゃなくて流暢性(説得)だったわね.
25
174
635
@tmaehara
4 years
G社の面接よかった。拾ってくれたらもっとよかった……。
1
21
588
@tmaehara
2 years
機械学習に必要な数学のレベル感、だいたい教養課程の線型代数・微分積分・確率統計を半分くらい理解してたら NeurIPS に出てる論文の 7 割は読める感じだと思う(残り 3 割を全部読める人は専門家にもいない)。
1
104
610
@tmaehara
6 years
これ,もしかして「数学者は算数ドリルを素早く解ける」みたいなイメージがあったりしません……?
@tmaehara
6 years
「経済産業省は数学や理論物理学を専攻する人材が産業界で活躍できるよう支援する。...日本の若手数学者の雇用は不安定な半面、大量のデータを扱うのに慣れている。人工知能(AI)開発などにつながるよう企業と若手人材のマッチングを進める。」
0
38
74
3
274
527
@tmaehara
4 years
指導教員選びは人格破綻者を避けるのが必須事項で、Twitterをやっている教員は人格キエエエエエエエエエエエエッ
2
143
555
@tmaehara
3 years
「微積分はわかるが exp(x) の微分は覚えていないのでググる」っていわれたら,何がわかるのかかなり不安になりませんか.
2
99
573
@tmaehara
4 years
新しい手法を作って精度数%向上させる,みたいな研究をやってたら「数%の向上なら新しい手法を作るよりもデータ数を倍にするほうが早いし強い」と国際会議ポスターで批判され,なるほどもっともな批判だ(まあうちではデータ増やせないけど),と思ったのでその分野から手を引きました.
1
64
578
@tmaehara
3 years
わたしのキャリア,「研究所3年・大学2年・研究所3年」なんですけど,転職エージェントさんに「短い期間での転職が多いですね」って言われたことがあります.
3
86
568
@tmaehara
7 years
「専門外だから思いつく柔軟な発想」、検証するコストのほうが遥かに高いので、基本的に無視していいのでは。
1
294
523
@tmaehara
4 years
博士の頃から積んでいた借金を完済した(やったー!!)
3
9
555
@tmaehara
1 year
データが最初から全部あるときのp値と途中で増やしたときのp値は定義に戻ると別の値になります。なので単純に「途中で追加したのにも関わらず最初から全部あったかのように計算するのは間違い」です。後から増やしてもわからないのは別の問題(隠蔽)で、これを気にするならp値は原理的にダメです。
@tkm2261
Takami Sato @日本一時帰国7/14-8/9
1 year
無知を晒すけど「p値下げるために後からサンプルサイズ増やすな」って正直わかってない。後から論文を見て増やしたかどうか何てわからんし、そのデータに対するp値としては計算上正しい訳だし。「小さい差に対しても有意になるから、p値だけでなく値の差もしっかり議論しよう。」ならわかるんだが。
4
18
154
1
115
594
@tmaehara
1 year
実は本当にChatGPT (UI/UX) がNLPを終わらせ “た” 可能性はあると思ってる。「そんな問題解かなくてもよかった」みたいな形で。
1
86
564
@tmaehara
2 years
f(x) = a(x) - a(x) と書いてある論文があり,こんなんゼロやろって思ったら a がランダム関数だから非自明な値を取るらしい.もうちょっと記号なんとかならんかったのか.
1
75
532
@tmaehara
6 years
なんなのこの slack チャンネル……
Tweet media one
0
206
522
@tmaehara
1 year
技術者各位はアンケートをデータを取るツールだと誤解しているかもしれませんが,実はアンケートって自分の考えを通すためのツールなんですよ.
1
83
566
@tmaehara
4 years
「この分野は素人なんですが、尤度ってなんですか?」は何度か刺さってるのを見たことがある。
1
128
520
@tmaehara
1 year
機械学習の王道はどう考えたって「(1) 良質のデータを (2) 大量に集めて (3) 良いモデルに食わせる」のはずだけど,大学や国立研究所では (1) (2) (3) 全部が苦しい.分野レベルでアカデミアから手離れしてる.
2
132
561
@tmaehara
5 years
最近流行ってるグラフニューラルネットワーク (esp. GCN) の性能は「ローパスフィルタ+2層ニューラルネットワーク」程度で達成できますよ,という論文です.
@StatMLPapers
Stat.ML Papers
5 years
Revisiting Graph Neural Networks: All We Have is Low-Pass Filters. (arXiv:1905.09550v1 [])
0
67
236
0
176
534
@tmaehara
4 years
ほんとこれなので,結果が出た瞬間に論文の初稿が完成するようなペース配分をしてます.具体的には,アイデアを思いついた時点で雑にイントロを書き,原稿を書き換えながら研究を進めてます.
1
58
534
@tmaehara
2 years
競プロもそうだけど、やったことの正誤がすぐに返ってくるシステムってすごく学習効果高いと思うのよね。なにか教育学的なエビデンスないのかしら。
8
64
535
@tmaehara
5 years
結構意図的に参考文献は作っています。たとえば「長い歴史のある問題だ」と主張したかったらめっちゃ古い論文と新しい論文を引く、「近年盛んに研究されている」と主張したかったらここ数年の論文を複数引く、「out of focus じゃない」ことを主張するため投稿先に出ている論文を引く、など。
1
93
501
@tmaehara
1 year
正直なところ,特に機械学習分野ではちょっと前から *王道の* 研究を大学や国立研究所で行うのは難しくなっているので…….
1
92
534
@tmaehara
1 year
loss「1.2, 0.6, 0.4, 0.2」 「お、捨てディープニューラルネットワークだ。可哀想に……」 loss「0.1, 0.08, 0.06」 「よしよし、デプロイしてあげようね」 loss「0.2, 1.3, 5.8, nan」 「こらこら、はしゃぐな、はしゃぐなw」
0
97
542
@tmaehara
5 years
同室に遺伝的アルゴリズム(memetic algorithm)の10000引用数を超えてる強い人が入ってきたので、最近のmemetic algorithm の理論はどうなのかと聞いたところ、3時間ノンストップで関係するか微妙な話をされ、最後に「理論では説明できない」で締められたので今日が終わってしまった。
1
83
491
@tmaehara
4 years
過去データに対してフィッティングしたものを素朴に未来に延長するのはかなりダメでしょ.それっぽい肩書をもってる人がこれをやるのは社会的にヤバイ.
@hwtnv
渡邉英徳 wtnv
4 years
横浜市立大の佐藤先生によるシミュレーションが更新。 「推計パラメータの見直しを行った結果、遅れ時間τ=10[日]で適合することができました。2020年4月3日から、今後感染者確認数の指数関数的増加が生じます」
Tweet media one
6
247
303
4
163
475
@tmaehara
3 years
若手が任期付きなのは制度上ある程度仕方ないと思っているけれど、それに「若い世代を期限なしにするとアクティビティがない研究者になってしまう可能性が高く」みたいな妙な理由をつけられるのは不愉快。
1
111
471
@tmaehara
4 years
4月の自殺者20%減「家族ら同居する人が外出せず家にいることや、職場や学校に行く機会が減り、悩むことが少なかったことなどが要因」と分析してるけど,Durkheim『Suicide』にあるとおり,社会が激動のときは自殺が減ることが知られていて,そんなに分析は簡単じゃないと思う.
Tweet media one
0
207
439
@tmaehara
3 years
統計・機械学習応用をする人がルベーグ積分についてどこまで知ってたらいいのかは割と明確で,期待値が満たす性質を一通り知っていればいいと思ってる.これは期待値の性質を公理にしたときに測度論的確率論が(概ね)復元できることに基づく.
1
72
459
@tmaehara
7 years
布団は、お気持ち一つで入ることができる団体です。「眠い」「起きたくない」「あと少し」「スヤァ」と思っただけで入団です。
1
257
404
@tmaehara
3 years
イギリスの永住権を得るためにはイギリスクイズに正解しないといけないんだけど,模擬イギリスクイズを見てたら難しいものが結構多くて悩んでる.
Tweet media one
4
103
450
@tmaehara
2 years
15分調べて分からないことを同僚に聞くと大抵「私もわからない、15分調べた分君の方が詳しいよ」と返ってくる職場です
0
76
452
@tmaehara
4 years
「この arxiv に出ている論文と内容が同じじゃないか」で reject 評価をもらっている(それはこの論文の arxiv ver なのだがーー!!)
2
86
434
@tmaehara
4 years
任期の都合で3年くらいで移動する必要があり,そのタイミングで研究業績が出てないとアカデミックキャリアは終了し,かつ研究業績が出るかは運だと思っているから,全体として「3年ごとにサイコロを振って無職になるゲーム」になっていると認識してます.
1
106
444
@tmaehara
2 years
深層学習時代の class imbalance 対応が面白い。適当にバランシングしたデータセットで十分学習した後にフルデータセットでファインチューンするのがいいらしい。なんだこれ。
2
67
470
@tmaehara
3 years
パワハラ対応で「"対等" な場を作る」って禁忌でしょ.対等になるわけないじゃん.チンピラに「会って話せばわかる」って言われて会いに行くのと同じようなものだよ.
1
88
431
@tmaehara
7 years
最近のセミナーで、アルゴリズムの人の「コンパクトなデータ構造」という表現に、数学の人が「コンパクトというのはどういう意味ですか?」と聞いたのがツボでした。
3
232
409
@tmaehara
2 years
学振の地位をもっと引き下げて「色々あるグラントの中の1つ,契約がひどいから基本的には取りたくないもの」くらいになってもらうのが博士課程学生の待遇改善においてトップクラスに重要なことだと思ってる
1
74
432
@tmaehara
6 years
インターネッツの悪いオタク、よくよく見ると高専卒の率が高く、高専が悪いシステムとして機能している。
3
174
377
@tmaehara
3 years
基盤研究費を競争的資金にする戦略に文句が出てるのは「無いと日常業務が回らないのになんで削減するの」みたいなやつがあって(e.g., 電球を交換できない・割れた窓を補修できない・椅子が買えない・etc)、たぶん普通の企業の人の感覚だと理解不能なんじゃないかしら。
2
141
427
@tmaehara
3 years
機械学習以外やる気がない人が情報系学科に進むと不幸なことになりそう
1
38
398
@tmaehara
3 years
「ML と AI はレイヤーが違う概念です。基本的には ML は手法・AI は成果物。「ML を用いた AI」みたいな言い方をします。ML を使わない AI もあります。」って言ってます
1
51
406
@tmaehara
5 years
アカデミアの肩書きがなくても(多くの)論文誌に出せます。所属は空欄か independent researcherにしておけば OK。independent researcher で検索すると先達が見当たります。
@kaitou_ryaku
解答略
5 years
わりと面白い(気がする)アイデアがあり、証明(的なやつ)もほぼ書き終えている。軽く調べたところ先行研究も無さそうなので、できればどこか論文誌に投稿したい。けど僕にはアカデミアの肩書きがないので、投稿は無理ぽい。会社と無関係な内容なので社名を出すわけにもいかない。arXivだけなら可能かな
5
19
79
0
118
399
@tmaehara
5 years
これは惚気なんですけど,弊ぴと雑談しながら散歩している間に急に研究に関する事柄を思いついたとき,わたしが文脈をぶった切って「ごめん10分くらい集中させて」と言うと,弊ぴは雑談を停止して無言で手を引いてくれます.
0
68
389
@tmaehara
5 years
松尾さんの を繰り返し読むべき
0
88
389
@tmaehara
6 years
overleaf 本当に便利で,最近論文書くのはほぼこれしか使ってないです.
Tweet media one
2
58
371
@tmaehara
5 years
元論文
@tjmlab
部品(川口春奈)
5 years
京大、ディープラーニングにより精度97%で気候変動を予測する手法を開発 「過去の気温データから生成した疑似カラー画像をディープラーニングで学習させるという新発想により~10年間の平均気温の上下を最大精度97.0%で推定できる手法を開発」 え、すごない???
Tweet media one
5
750
2K
1
152
363
@tmaehara
3 years
「『クイックソート』の計算量」はどう答えるかで知識を確認できる問題に *なってしまって* おり,地雷原感すごい.
1
80
387
@tmaehara
1 year
Twitter (日本語圏) は批判的に論文紹介してくれる人が少なくてあんまり役に立たない(大抵著者のアブストを肯定的に和訳してるだけ).「自明」とか「間違ってる」とか「単なるお気持ち」とかをピンポイントして書いてほしい.
0
88
357
@tmaehara
1 year
放送大学のコースを完遂できる人,自習でも大体同レベルまで完遂できるイメージある
1
33
367
@tmaehara
2 years
これは正しくないです.平均や中央値は適当な分布のパラメタの最尤推定量とみなす **こともできる** けど,そうみなさないといけない理由は特にないです.
@_kohta
Kohta Ishikawa
2 years
何度も言うけど、平均でも中央値でもなんでも、統計量を計算したならその背景に(ガウス分布とかの)統計モデルを想定したことになるはずなので、そのモデルを明示するべきだと思うんですよね…。そういうガクモンじゃなくて実務をやってるので…となるなら、統計量を計算せずに同じ仕事ができるはず。
1
50
262
2
59
365
@tmaehara
3 years
「数学・計算機科学の論文を TeX で書かないのは論文をクレヨンで手書きするのと似たようなもの」
Tweet media one
0
113
360
@tmaehara
3 years
「良い人を採用し損ねるよりも悪い人を採用しちゃうほうがヤバいので、相当プラスじゃなきゃ落とせ。良い人はまた応募してくれることを期待しよう。」みたいなのをちょっと前に某所で見ました。
1
51
357
@tmaehara
4 years
ダシにして申し訳ないんですけど,これはとてもよい例なので挙げさせてください.用語を調べるときは論文数よりは著者を見たほうがよいです.この場合3本に共通する著者がいるので研究室ローカルの可能性があります.
@chokudai
chokudai(高橋 直大)@AtCoder社長
4 years
@drken1215 とりあえずCiniiで3件あるし、論文とかでも一応使われているので、競プロ発祥では無いと認識していた。ほかにもググると色々出てくる
Tweet media one
1
3
7
1
76
347
@tmaehara
3 years
某社リクルータから「研究部門のリード,年収400万」という首刈り案内を頂きました.ありがとうございます(??)
3
46
355
@tmaehara
2 years
最近知人が Editage の「トップジャーナル英文校正」プランを試していたんだけど,内容に踏み込んだ,まるで「好意的で親切な査読者によるレビュー」みたいなのをもらっていたので,かなり良いんじゃないかと思ってる.
1
60
355
@tmaehara
4 years
離散数学・アルゴリズム系で面白いと思ったものをまとめます.
1
69
330
@tmaehara
3 years
線型代数・微分積分・確率統計あたりは数学を勉強するために必要になる可能性が非常に高いから,先達が「勉強しておけ」って言っているわけで
0
45
334
@tmaehara
3 years
「機械学習にルベーグ積分が不要」みたいなやつ、別にリーマン積分で十分って話ではなく、単に「わたしは条件をチェックせずに積分操作をします」っていう蛮行の表明だと思ってる
1
47
337
@tmaehara
1 year
> 通常、臨床試験は有意差を保証できるものではありません。しかし、オルトメディコのノウハウを駆使すれば必ず有意差を出せます!
Tweet media one
2
204
351
@tmaehara
7 years
海外の方から how are you とか聞かれて、なんて答えるべきか悩むことが多かったんだけど、あれは先手をとって how are you するゲームだと気づいて戦えるようになった()
4
107
326
@tmaehara
5 years
大学で楽しくキカイガクシューやってたらいつのまにか線型代数・微分積分・確率統計がわかるようになっていて,しかもシューショクもできちゃった! みたいなのが理想形だと思うの.幸せになろうよ
1
48
328
@tmaehara
2 years
よいテンプレを作るのって大事だなあって感じてる。「論文のイントロでは…を意識して…を書いて…」みたいに言うよりも「以下を箇条書きで埋めてください:1.誰にとっての問題か;2.期待する状態はなにか;3.どうやって期待状態であることを判定するか」のほうが早いし個人差(特に言語)が出にくい。
1
57
341