このエントリーをはてなブックマークに追加

Dec

20

ABEJA Tech LT #2

~お酒を片手にゆるふわLT Night~

Hashtag :#ABEJA
Registration info

参加枠1

Free

FCFS
40/40

参加者への情報
(参加者と発表者のみに公開されます)

Description

ABEJA Tech LTとは??

ABEJAでは毎週金曜日の夕方からABECONという社内勉強会を開催しています。

https://speakerdeck.com/abeja/zhu-shi-hui-she-abeja-hui-she-shao-jie-zi-liao

(ABECONの説明は、弊社会社紹介資料のP29に詳しくは書かれております!)

このABECONを外部の方にも聞いていただきたく、ABEJA Tech LTとして社外枠を一部開放したいと思います。 ゆるーい会なので、ラジオ的に聞いてもOK、お酒を飲みながら聞いてOKです。金曜日の夜が少しでも楽しい時間になれば幸いです!(ABEJAにご興味がある方はぜひ!)

「社内勉強会」という名前がついておりますが、テーマを絞らず自由発表形式にしております。

過去のABECONのテーマ例

人工知能(AI) / データサイエンス / ビッグデータアナリティクス / 機械学習 / ビジネス·アナリティクス / ビジネスインテリジェンス / 予測分析 / データビジュアライゼーション / データサイエンス / スタートアップ / ソフトウェア開発 / 新テクノロジー / ロボット工学 / ビッグデータ / フロントエンド / バックエンド / SRE / Q&A / 趣味

過去会はこちら!

今回のテーマ

今回のテーマは、社内のエンジニアのチャレンジをいくつかピックアップできればと思います。

登壇者情報

道辻 善治 (シニアコンサルタント)

  • 明治大学大学院機械工学専攻(修士)卒業。ダイキン工業に新卒入社後、機械設計エンジニアとして商品開発に従事。熱交換器設計、性能計算を中心に幅広く設計開発を行う。
  • 曙ブレーキ中央技術研究所で新商品の研究開発に携わり、商品企画、基礎研究を行う。JDLA G検定およびE資格を取得し、研究開発でのAI活用を模索。
  • 2020年2月よりABEJAに参画。流通、製造業を中心にAI活用支援を行っている。

大谷 真也(データサイエンティスト)

  • 神戸大学工学部電気電気工学⇨2016年に同大学院電気電子工学専攻修了
  • 新卒でトヨタ自動車入社。駐車支援システムを開発し製品化
  • 大学でやってたDeep Learningが忘れられず2021年にABEJA入社し、データサイエンティストを担当

服部 響(データサイエンティスト)

  • 大阪大学大学院情報科学研究科卒業。卒業後は株式会社NTTドコモに入社。Webアプリの企画・開発を経験した後、趣味で麻雀AIを作ったことをきっかけに機械学習の道に入る。その後業務で、画像認識を用いたアプリの開発や機械学習を用いたユーザプロファイリングに従事。
  • 2020年5月にABEJA入社。データサイエンティストを担当。業務の他にもKaggleやatmaCupなどのデータサイエンスコンペに積極的に参加。Kaggle Master / atmaCup3回優勝。

勉強会でいただいた質問と回答

Flowが複数出力するのはどういった構造からですか?

  • 初期ガウシアン分布の作り方次第でさまざまな画像を同じモデルから出力できることに起因します。初期分布の標準偏差を0にすれば、PSNRで学習した時のようなベタ塗りの画像が、標準偏差を1にすればモデルはさまざまな種類の画素を生成しようとしてより細部を表現しようとした画像ができあがります。

超解像の評価ってどうするんですか??オリジナルに近いかどうかですか?

  • 一番簡単で広く用いられているのはPSNRと呼ばれるオリジナルの画像との画素の近さを表現するものです。しかしPSNRの評価が高いことが人間の感性にそぐわないということもあり、最近ではlpips(PerceptualSimilarity)と呼ばれる手法で評価することも多いです。

計算量は結構違いますか?

  • SRGANとの計算量の比較としてお答えします。SRFlowはSRGANでも用いられている超解像モデル+Flowステップのモデルが直列につながっているため、計算量はその分大きいです。

次元削減しないのが要因ですか?

  • 学習のメモリが多いことへの質問としてお答えします。この部分は非常にややこしいのですが、変換写像fとすると、逆写像gは g=f^(-1)=f^(-1)_n • … • f^(-1)_1 と表現できます。学習時にgを微分するということはそれぞれのステップでの微分計算結果を保持しなければいけなく、その分だけメモリを消費することになるので、学習コストが高くなります。同様の理由で各層分計算しなければいけなく学習時間も遅いです。RTX3090で論文通りのパラメータを学習するのに5日程度かかります。

参加方法

  • 参加者には、前日または当日にZoomURLを連絡いたします。 開催時間の5分前から入室が可能です。

注意事項

  • 本イベントはエンジニア向けイベントであり、勧誘、営利、宣伝、ヘッドハンティング等を目的とした参加はお断りをさせていただくことがあります。

  • 発表順番等、イベントタイムテーブルは予告なく変更となる場合があります。

Media View all Media

If you add event media, up to 3 items will be shown here.

Feed

Hiroyuki Ootaguro

Hiroyuki Ootaguro published ABEJA Tech LT #2.

12/03/2021 13:06

ABEJA Tech LT #2 has been published!

Group

ABEJA Innovation Meetup

テクノプレナーシップを発揮する/したい人材が集うイベントです。

Number of events 46

Members 1715

Ended

2021/12/20(Mon)

19:00
20:00

You cannot RSVP if you are already participating in another event at the same date.

Registration Period
2021/12/03(Fri) 13:06 〜
2021/12/20(Mon) 20:00

Location

オンライン

オンライン

オンライン

Attendees(40)

Miyak

Miyak

ABEJA Tech LT #2 に参加を申し込みました!

tss

tss

ABEJA Tech LT #2に参加を申し込みました!

Takayoshi Makabe

Takayoshi Makabe

ABEJA Tech LT #2 に参加を申し込みました!

takaoleparadoxe

takaoleparadoxe

ABEJA Tech LT #2 に参加を申し込みました!

kna0ki

kna0ki

ABEJA Tech LT #2に参加を申し込みました!

TUZ

TUZ

ABEJA Tech LT #2に参加を申し込みました!

narumi

narumi

ABEJA Tech LT #2 に参加を申し込みました!

kazumiks

kazumiks

ABEJA Tech LT #2 に参加を申し込みました!

SShota

SShota

ABEJA Tech LT #2 に参加を申し込みました!

takumuscle

takumuscle

ABEJA Tech LT #2に参加を申し込みました!

Attendees (40)

Canceled (1)