2026年度 シラバス学部
2026年度 シラバス学部
| 2026/02/19 現在 |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 3学期 /Third Quarter |
|---|---|
| 対象学年 /Course for; |
3年 |
| 単位数 /Credits |
4.0 |
| 責任者 /Coordinator |
テーヌワラ ハンナディゲー アキラ サンジャヤ シリウィーラ |
| 担当教員名 /Instructor |
愼 重弼, 白 寅天, テーヌワラ ハンナディゲー アキラ サンジャヤ シリウィーラ, TBD-4 |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
Courses preferred to be learned prior to this course (This course assumes understanding of the entire or partial content of the following courses) MA01 Linear Algebra I MA02 Linear Algebra II MA03 Calculus I MA04 Calculus II MA07 Probability and Statistics FU08 Automata and Languages |
| 更新日/Last updated on | 2026/02/02 |
|---|---|
| 授業の概要 /Course outline |
This course lays the foundation for "Artificial Intelligence" with essential topics of principles and techniques that bridge the traditional-to-modern on-demand syllabus. It follows the traditional AIMA (Artificial Intelligence: A Modern Approach, Russell and Norvig) teaching/learning approach, with minor revisions, adopting topics in language modeling. At the end of the course, students will be able to; - Formulate AI problems with clear state/feature representations and assumptions. - Implement and analyze core search and adversarial search methods (e.g., BFS/ DFS/ UCS/ A*, minimax). - Represent knowledge with logic/KR and perform basic inference; connect KR choices to planning needs. - Solve structured problems using CSP techniques and classical planning representations/algorithms. - Model uncertainty with graphical models and perform probabilistic inference (including approximate inference). - Train and evaluate supervised learning and deep learning models, reasoning about generalization. - Formulate MDPs and apply core RL ideas (planning via value iteration; learning via Monte Carlo), recognizing RLHF’s role and risks. - Explain the transformer-based LLM pipeline (pretraining -> alignment -> evaluation) and articulate practical limitations, failure modes, and system constraints. |
| 授業の目的と到達目標 /Objectives and attainment goals |
[Corresponding Learning Outcomes] This course is planned with 7 main modules and 14 lectures. The overall objective is to provide students with a foundation in classical and modern AI, how to model problems, represent knowledge, reason under uncertainty, learn from data, make sequential decisions, and understand modern language/foundation models, while applying responsible-AI principles throughout. Each module sets its own objectives to support the course's overall plan as follows. Module #, name (lecture #s), objectives, and a brief introduction are as follows. Module 1 - Course Introduction (Lectures 1): Goal: Direct students to the AI landscape (classical and modern), outline expectations for assignments, and brief on responsible AI. Brief Introduction: Establish shared vocabulary for “what is AI,” course expectations, and responsible-AI framing for all subsequent modules. Module 2 - Problem Solving by Search (Lectures 2-3): Goal: Teach students to formulate problems as search, implement/analyze core algorithms (BFS/DFS/UCS/A*), and introduce adversarial search (minimax) as the foundation for later CSP, planning, and RL. Brief Introduction: Develop problem-formulation skills and the core algorithmic toolkit for search (uninformed, optimal, and heuristic) and adversarial decision-making. Module 3: Knowledge, Reasoning, and Planning (Lectures 4-5): Goal: Teach how to represent knowledge (logic/KR, ontologies), perform basic inference (reasoning), and solve structured problems via CSP and classical planning, forming the conceptual bridge from search to decision making under uncertainty (MDPs/RL). Brief Introduction: Connect representations (logic/KR/ontologies) to inference, then to structured solving via CSP and classical planning. Module 4: Uncertain Knowledge and Reasoning (Lectures 6-7): Goal: Equip students to represent uncertainty with graphical models (Markov networks and Bayes nets) and to run practical inference (including approximate inference via Gibbs sampling), with a short, applied introduction to parameter learning. Brief Introduction: Introduce uncertainty-aware modeling with graphical models and practical inference/learning tools. Module 5: Learning from Data (Lectures 8-10): Goal: Equip students with the core supervised-learning workflow models (linear, logistic/softmax, MLPs), losses/optimization (training with minibatches/backprop), and evaluation/generalization- needed for downstream RL/LLM topics and course projects. Brief Introduction: Build the supervised-learning workflow from linear models to neural networks, with emphasis on optimization, evaluation, and generalization. Module 6: Learning and Planning from Rewards: Sequential Decision Making (Lectures 11-12): Goal: Teach sequential decision making via MDPs (modeling + policy evaluation), planning with dynamic programming (value iteration), and model-free RL (Monte Carlo), with a concise bridge to RLHF and its practical risks. Brief Introduction: Develop sequential decision-making foundations from model-based planning to model-free learning, plus a modern bridge to RLHF. Module 7: Language & Foundation Models (Lectures 13-14): Goal: build a coherent modern foundation from the language-modeling objective to transformers, then connect to the end-to-end LLM pipeline (pretraining -> instruction tuning/RLHF -> evaluation, limitations, and system constraints). Brief Introduction: Provide modern LLM foundations (LM objective, transformers) and connect them to training, alignment, evaluation, and limitations. [Competency Codes] C-IS-001, C-IS-002-2, C-IS-003, C-IS-004-1, C-IS-005-2 |
| 授業スケジュール /Class schedule |
Lecture 1: Introduction to AI - What is AI? and brief history - Related research fields - Course flow (preparation for assignments) - Responsible AI (Society, Economics, Ethics & Responsibility) [in-class] 4.25-hrs, [review] 1.5-hrs, [exercise] 2.0-hrs, [preparation] 1.5-hrs -> 9.25-hrs Focus: in-class framing; light prep; exercise setup. Lecture 2: Search I: Problem Formulation & Uninformed Search - Tree search: Basic exhaustive search, BFS, DFS - Dynamic programming [in-class] 4.25-hrs, [review] 1.5-hrs, [exercise] 3.0-hrs, [preparation] 1.5 -> 10.25-hrs Focus: exercises = tracing/implementing BFS/DFS/DP patterns. Lecture 3: Search II: Heuristic & Adversarial Search - Uniform cost search & UCS correctness - A* - Minimax Minimax Algorithm [in-class] 4.25-hrs, [review] 1.5-hrs, [exercise] 3.5-hrs, [preparation] 2.0-hrs -> 11.25-hrs Focus: more prep + exercises for A*/heuristics + minimax/alpha-beta. Lecture 4: Knowledge Representation & Logical Reasoning (Logic and Ontologies) - Big picture pipeline: Represent > Reason > Plan (what and when) - Logic essentials for KR & reasoning extras - Ontology basics (KR-focused) - Ontology in practice [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 3.0-hrs, [preparation] 2.0-hrs -> 11.25-hrs Focus: prep/review to stabilize notation; exercises in modeling (English -> KR). Lecture 5: Constraint Satisfaction & Classical Planning (CSP and Planning) - CSP extensions - Planning algorithms & representations - Planning under uncertainty pointer (bridge to MDP/RL) [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 6.0-hrs, [preparation] 2.0-hrs -> 14.25-hrs Focus: heavy exercises (CSP solving + planning-as-search formulations). Lecture 6: Probabilistic Reasoning I: Markov Networks & Approximate Inference Markov Networks and Approximate Inference - Markov Network Overview, Factorization - Conditional Independence in Markov Networks - Gibbs Sampling for Marginals [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 5.0-hrs, [preparation] 2.0-hrs -> 13.25-hrs Focus: exercises running/diagnosing sampling and interpreting marginals. Lecture 7: Probabilistic Reasoning II: Bayesian Networks & Inference (and Learning) Bayesian Networks: Factorization, Independence, and Inference - Bayesian Network Overview - Conditional Independence in Bayes Nets (dseparation intuition) - Inference (pick one main method) - Parameter Learning (quick; practical) [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 4.0-hrs, [preparation] 2.0-hrs -> 12.25-hrs Focus: exercises on d-separation + variable elimination workflows. Lecture 8: Supervised Learning I: Linear Models (Regression, Classification) - Linear regression - Linear classification [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 5.0-hrs, [preparation] 2.0-hrs -> 13.25-hrs Focus: exercises implementing GD + interpreting loss/fit. Lecture 9: Supervised Learning II: Logistic/Softmax; Losses & Generalization - Logistic/softmax models - Losses, Regularization, Generalization - Evaluation basics - Unsupervised learning (quick overview): clustering, dimensionality reduction (motivation and when) [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 5.0-hrs, [preparation] 2.0-hrs -> 13.25-hrs Focus: exercises on evaluation, CV, regularization, and clustering. Lecture 10: Deep Learning: MLPs; Backpropagation & Optimization - MLP, activations, outputs - losses, minibatches - backprop, optimizers (main chunk) - generalization tools (dropout/early stopping/etc.) - training diagnostics, wrap [in-class] 4.50-hrs, [review] 2.0-hrs, [exercise] 7.0-hrs, [preparation] 3.0-hrs -> 16.50-hrs Focus: extra prep + heavy exercises for backprop/training/debugging. Lecture 11: Markov Decision Processes: Modeling and Policy Evaluation - Modeling: Defining MDPs; Dice game; transportation problem. - Policy evaluation: Policy evaluation; discounting factor. [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 3.0-hrs, [preparation] 2.0-hrs -> 11.25-hrs Focus: exercises formulating MDPs + computing values/policies. Lecture 12: Reinforcement Learning: From MDP Planning to Monte Carlo (and RLHF Overview) - Value iteration - Modelfree Monte Carlo - Summary bridge to TD/Qlearning - RLHF pipeline overview, risks [in-class] 4.50-hrs, [review] 2.0-hrs, [exercise] 8.0-hrs, [preparation] 3.0-hrs -> 17.50-hrs Focus: heaviest exercise block (Monte Carlo RL + comparisons; RLHF pipeline literacy). Lecture 13: From Language Modeling to Transformers - ngrams > neural LMs - tokens, embeddings - attention/self-attention, masking (main chunk) - transformer block, positional info - scaling, constraints, wrap [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 4.0-hrs, [preparation] 2.0-hrs -> 12.25-hrs Focus: exercises tracing attention on small examples + conceptual checks. Lecture 14: LLMs as Foundation Models - pipeline - pre vs post training - instruction tuning - RLHF/RLVR conceptual - testtime scaling - systems constraints, evaluation/failures wrap [in-class] 4.25-hrs, [review] 2.0-hrs, [exercise] 6.0-hrs, [preparation] 2.0-hrs -> 14.25-hrs Focus: exercises analyzing pipelines, evaluation, failure modes, and tool/RAG scenarios. |
| 教科書 /Textbook(s) |
Recommended textbooks are not essential. However, for further exploration (advanced topics or another perspective on the same material), the following resources are recommended. Please note that there may be slight differences in terminology used between textbooks. [1] Russell and Norvig. Artificial Intelligence: A Modern Approach. This will be a comprehensive reference for the topics we cover. [2] Koller and Friedman. Probabilistic Graphical Models. Covers factor graphs and Bayesian networks [3] Sutton and Barto. Reinforcement Learning: An Introduction. Covers Markov decision processes and reinforcement learning (free online). [4] Hastie, Tibshirani, and Friedman. The Elements of Statistical Learning. Covers machine learning from a rigorous statistical perspective (free online). [5] Afshine Amidi and Shervine Amidi. Super Study Guide: Transformers & Large Language Models |
| 成績評価の方法・基準 /Grading method/criteria |
Final Exam: 60 Quiz: 10 Report: 20 Program: 20 |
| 履修上の留意点 /Note for course registration |
It is highly recommended to take calculus, linear algebra, probability and statistics, and automata and languages before starting this course. In addition, the demos and exercises in this course are mainly based on Python and encourage students to be prepared in Python programming. |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
Please note that recommended textbooks are not essential. [1] Russell and Norvig. Artificial Intelligence: A Modern Approach. This will be a comprehensive reference for the topics we cover. [2] Koller and Friedman. Probabilistic Graphical Models. Covers factor graphs and Bayesian networks [3] Sutton and Barto. Reinforcement Learning: An Introduction. Covers Markov decision processes and reinforcement learning (free online). [4] Hastie, Tibshirani, and Friedman. The Elements of Statistical Learning. Covers machine learning from a rigorous statistical perspective (free online). [5] Afshine Amidi and Shervine Amidi. Super Study Guide: Transformers & Large Language Models |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 2学期 /Second Quarter |
|---|---|
| 対象学年 /Course for; |
3年 |
| 単位数 /Credits |
3.0 |
| 責任者 /Coordinator |
ファヨール ピエール アラン |
| 担当教員名 /Instructor |
ファヨール ピエール アラン, 西舘 陽平, 高橋 成雄, 平田 成 |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
- |
| 更新日/Last updated on | 2026/01/09 |
|---|---|
| 授業の概要 /Course outline |
本授業はコンピュータと情報技術の重要な応用であるコンピュータグラフィックスについて学習する。コンピュータグラフィックスは人間の目で見た物体をコンピュータで立体的画像を作成する技術であり、下記の分野で応用されている。 * CAD (Computer-aided design): 機械設計、建築設計、回路設計など。 * 娯楽: 映画制作、アニメ、ゲームなど。 * バーチャルリアリティ:フライトシミュレーション、手術支援など。 * ビジュアリゼーション:シミュレーション、データビジュアライゼーション。 |
| 授業の目的と到達目標 /Objectives and attainment goals |
[対応する学習・教育到達目標] (A) 技術者としての専門的・倫理的責任を自覚し、情報科学技術を駆使して社会における要求を分析し、技術的課題を設定・解決・評価することができる [コンピテンシーコード] C-GV-004, C-GV-005, C-GV-006, C-GV-007 本授業はコンピュータグラフィックスについて、基礎理論と実践力の両方を身に付けること。 |
| 授業スケジュール /Class schedule |
ファヨール先生: 1) ガイダンス、CGの基本概念、OpenGL入門 2) 3Dビューイングパイプライン 3) 幾何学的変換、投影変換 4) シェーディング 5) マッピング 6) アニメーション (スケルトン, kinematics) 7) アニメーション (物理シミュレーションに基づく) 8) レイトレーシング 9) ラスタライザ、隠面消去 10) サーフェス・ソリッドモデルによる立体表現 11) ポリゴンメッシュ処理 12) 自由曲線・曲面 13) GPUプログラミング (GLSL, シェーダー) 14) GPUプログラミング (advanced shaders) 高橋先生: 1) ガイダンス 2) ソリッドモデルによる立体表現 3) 境界表現とオイラー操作 4) 2次元幾何学的変換 5) 3次元幾何学的変換 6) 投影変換 7) 隠面消去 8) シェーディング 9) マッピング 10) アニメーション 11) レイトレーシング 12) 自由曲線・曲面 13) ノンフォトリアリスティックレンダリング 14) GPUプログラミングの基礎 【予習・復習】 各講義の前に、履修者は講義計画に示された内容について、講義資料や該当する読本を読み、予習を行う必要があります。また、必要に応じて、演習時間外にプログラミング課題を完了させる必要があります。1回あたりの準備・復習時間は、通常6時間程度です。 |
| 教科書 /Textbook(s) |
スライドおよび講読資料は、講師が提供します。 |
| 成績評価の方法・基準 /Grading method/criteria |
* 演習、宿題 、適宜問題: 40% * 期末試験:60% |
| 履修上の留意点 /Note for course registration |
以下の科目に精通していることが期待される: * 線形代数、微積分 * プログラミング |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
授業ホームページ (ファヨール先生): * https://web-int.u-aizu.ac.jp/~fayolle/teaching/cg/index.html |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 2学期 /Second Quarter |
|---|---|
| 対象学年 /Course for; |
4年 |
| 単位数 /Credits |
3.0 |
| 責任者 /Coordinator |
矢口 勇一 |
| 担当教員名 /Instructor |
矢口 勇一, ワン ジーシャン |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
- |
| 更新日/Last updated on | 2026/02/05 |
|---|---|
| 授業の概要 /Course outline |
『百聞は一見に如かず』 画像は日常生活におけるコミュニケーションや知識の蓄積において重要な役割を果たしている。近年はモバイル端末の普及により、誰もが容易に画像を取得・共有できるようになり、Web等を介して膨大な画像を参照できる環境が整った。一方で、画像を「見る」だけでなく、コンピュータが自動的に画像を処理し、構造や特徴を抽出し、必要に応じて認識・理解へとつなげる技術は、社会実装・産業応用の基盤として重要性を増している。 画像処理は、カメラ等で取得した画像を適切に加工・変換し、そこから有用な情報を引き出すための技術である。本授業では、デジタル画像処理の基礎として Low-Level Vision を中心に扱い、画像の表現と入出力、濃度変換、空間フィルタ(畳み込み)と形態素処理、周波数領域処理(FFTとフィルタ設計、リング効果)、カラー処理、Wavelet等の変換、セグメンテーション、特徴抽出(SIFT等)および圧縮の基本を学ぶ。 各回の演習では、Python(OpenCV)を用いて手法を実装・適用し、可視化(結果画像、ヒストグラム、スペクトル、差分)および指標(例:PSNR/SSIM等)を用いて結果を比較・考察する。さらに授業期間中に複数回のレポート課題(A1〜A7)を課し、画像処理パイプラインの構成・比較・評価を通じて、実運用を意識した理解と応用力を養う。 |
| 授業の目的と到達目標 /Objectives and attainment goals |
[対応する学習・教育到達目標] (A) 技術的課題を設定・解決・評価することができる (B) 生涯にわたって自発的に学習することができる (C) 数学・自然科学・情報技術分野の専門知識と科学的思考力を問題解決に応用できる [コンピテンシーコード] C-AL-004-1, C-AL-005-2, C-AL-006-2, C-GV-007, C-GV-004, C-GV-006, C-GV-005 [授業の到達目標] 本授業の到達目標は以下のとおりである。 1. デジタル画像の表現(階調・ヒストグラム等)を説明し、濃度変換(negative/log/gamma/ヒストグラム操作)と二値化(固定閾値/Otsu/adaptive)を実装して、結果の差を説明できる。 2. 畳み込みに基づく平滑化・エッジ検出・シャープ化(Laplacian/Unsharp/High-boost等)を実装し、ノイズ抑制と鮮鋭化のトレードオフを比較・分析できる。 3. 形態素処理(opening/closing等)を用いて領域マスクやノイズ除去を行い、手法の特性を説明できる。 4. 周波数領域(FFT/IFFT)でスペクトルを可視化し、LPF/HPF/BPF(Ideal/Butterworth/Gaussian)を設計・適用できる。さらにリング効果等の副作用を説明し、指標(PSNR/SSIM等)を用いて評価できる。 5. HSV等の色空間変換やWavelet等の多重解像度特徴を用いて、線構造抽出(Canny+Hough等)を実施し、結果を比較・考察できる。 6. セグメンテーション(閾値、領域成長、クラスタリング、GrabCut、SOM、学習済みモデル等)および特徴抽出(Harris/Shi-Tomasi/SIFT、Template matching、BoVW等)の代表手法を適用し、対象・条件に応じた手法選択と結果の妥当性を評価できる。 7. Python(OpenCV)による処理パイプラインを構成し、結果(画像・図表・指標)と考察を整理して、再現可能な形式でレポートとしてまとめられる。 [学習の進め方] 講義で概念と代表手法を学び、演習で実装・可視化・比較を行う。授業期間中のレポート課題(A1〜A7)では、複数手法の比較、パイプライン設計、評価と考察を通じて応用力を養う。 |
| 授業スケジュール /Class schedule |
[授業形態] - 本授業では、講義(100分)で扱う概念と手法を、同回の演習(50分)で最小実装・最小検証まで行い、授業外学修では「再現・整理」と「レポート課題」に時間を配分することで学習効果を確実化する。 - 授業外学修時間の目安は各回430分とし、予習60分(講義スライド読解+演習コードの事前確認)、復習70分(演習の再実行と結果整理)、課題150分(課題150分は平均配分であり、1課題は2回分相当=約300分を想定する)、追加復習150分(スライド再読・参考文献読解・期末試験向けドリル)を標準配分とする。 レポート課題は、授業内で実装の足場(テンプレート、実行例、評価観点)を提示した上で、原則として2回分の授業内容を1課題として構成し、提出猶予を2週間確保する。各課題は実装・可視化・比較・短い考察を中心とし、到達目標が「授業内で実装→授業外で再現・整理→課題で応用」によって段階的に達成できるように設計している。 [授業計画] 1. Introduction to image processing(画像の役割、処理の流れ、OpenCV導入)/演習:環境確認、画像入出力、画素操作 2. Intensity transform(ヒストグラム、二値化、log/gamma、平滑化・強調の導入)/演習:ヒストグラム・濃度変換・二値化 3. Convolution and spatial filter I(畳み込み、平滑化、エッジ・ラプラシアン等)/演習:平滑化・エッジフィルタ比較 4. Convolution and spatial filter II(シャープ化、Unsharp/High-boost、ノイズ増幅の理解)/演習:シャープ化とパイプライン比較 5. Morphological filter(膨張・収縮、opening/closing、マスク生成、ノイズ除去)/演習:マスキングと塩胡椒ノイズ除去 6. Frequency filtering I(FFT/DFT、スペクトル、中心化、周波数フィルタ枠組み)/演習:FFT/IFFTとスペクトル可視化 7. Frequency filtering II(LPF/HPF/BPF、リング効果、周波数強調、PSNR/SSIM等)/演習:フィルタ比較と評価指標表 8. Color image processing(色モデル、HSV、成分分解と成分処理)/演習:HSV変換、Hue操作、V成分処理 9. Wavelet and other image transformation(Hough直線検出、多重解像度、DWTサブバンド特徴)/演習:Canny+HoughとWavelet+Hough比較 10. Image segmentation I(閾値、領域成長、クラスタリング等)/演習:基本手法の実装と比較 11. Image segmentation II(GrabCut/GraphCut、SOM、ONNX等)/演習:GrabCut・SOM・ONNX比較 12. Image features and extraction I(コーナ検出:Harris、Shi-Tomasi、不変性の考え方)/演習:コーナ可視化と点数比較 13. Image features and extraction II(SIFT、Template Matching、BoVW)/演習:SIFT可視化、Template/BoVW検出比較 14. Image compression(可逆/非可逆、PNG/JPEG、圧縮と劣化・評価)/演習:圧縮・再構成・比較 [提出課題] 授業内容の理解と応用力の定着を目的に、全7回のレポート課題(A1〜A7、各10点)を課す。各課題は講義内容に対応し、画像処理パイプラインの構築、結果の可視化、比較・考察、コード提示を求める。 1. A1:Image enhancement and binarization(L1–L2) 濃度変換(negative/log/gamma)と各種しきい値処理(固定T/Otsu/adaptive)を適用し、ヒストグラムと結果を比較・考察する。 2. A2:Spatial filtering and image enhancement(L3–L4) 平滑化(Mean/Gaussian/Median)とシャープ化(Laplacian/Unsharp/High-boost)を比較し、ノイズ増幅を抑える処理パイプラインを2案設計して評価する。 3. A3:Morphological filter – image masking and denoising(L5) 形態素処理(opening/closing)を用いた領域マスク生成(finger)と、塩胡椒ノイズ除去+金属部抽出(circuit)を、Median系とMorphology系の2方式で比較する。 4. A4:Frequency domain filtering and analysis(L6–L7) FFTスペクトル可視化と再構成を確認し、LPF/HPF/BPF(Ideal/Butterworth/Gaussian)を比較する。リング効果を差分で可視化し、PSNR/RSNR/SSIMで評価する。 5. A5:Color-based and multi-resolution line detection(L8–L9) HSVでのHue変換と、V成分に基づくCanny+Hough直線検出を実施する。さらにWavelet(Haar DWT)の方向特徴を用いた線検出と比較する。 6. A6:Comparative segmentation methods(L10–L11) horse.jpgを対象に、閾値・領域成長・K-means・GrabCut・SOM・U²-Net(ONNX)の6手法で前景抽出を行い、完全性・背景抑制・調整容易性を比較する。 7. A7:Feature extraction(L12–L13) robotgroup.jpg / face.jpgを用い、コーナ検出(Harris/ Shi-Tomasi)、SIFT可視化、テンプレートマッチングによる顔検出を行う。BoVWを構築して探索し、Template方式との比較評価をまとめる。 [予習・復習] 各回の授業に臨むにあたり、授業計画に示した授業内容について講義資料(配布スライド)を事前に読解し、演習ノートブックの手順・コードを確認しておくこと。授業後は、演習で扱った処理を再実行し、出力の差とその理由を整理すること。また、授業の節目で提示されるレポート課題(A1〜A7)を期限までに仕上げること。 本授業の授業外学修時間の目安は各回430分とし、内訳は 予習60分(スライド読解+演習コード読解)、復習70分(演習再現・整理)、課題150分(該当週の課題作業)、追加復習150分(スライド該当箇所の精読、参考図書・論文読解、期末試験向けドリル)とする。 |
| 教科書 /Textbook(s) |
[教科書] - 教科書は指定しない。講義資料・演習ノートブック・補足資料はELMSで配布する。 [参考図書] - R. C. Gonzalez and R. E. Woods, Digital Image Processing, 4th Edition, Pearson, 2017. - CG-ARTS協会『ディジタル画像処理 改訂第二版』CG-ARTS協会, 2024. - (※購入は必須ではないが、復習・発展学習のため参照を推奨する。) |
| 成績評価の方法・基準 /Grading method/criteria |
- レポート課題(A1〜A7):70点(各10点×7回) - 期末試験:30点 - 合計:100点 ※出席は授業内のミニ課題提出等により確認する(成績には加味しない)。 |
| 履修上の留意点 /Note for course registration |
- 資料配付:講義スライド、演習ノートブック、補足資料はELMSで配布する。 - 課題提出:レポート課題(A1〜A7)は原則ELMSでPDF提出とし、各課題の提出期限は公開時に指示する(目安:2コマ分で1課題、提出まで2週間)。 - 遅延提出:初回提出期限に遅れた場合、当該課題は -4点(下限0点)とする。やむを得ない事情(病欠、就活、学内外イベント等)がある場合は事前に連絡すること。 - 欠席・遅刻:欠席が見込まれる場合は事前連絡を推奨する。無断欠席・途中退室・私語等、受講態度が著しく不適切な場合は注意・指導の対象となる。 - 教員が国際会議などによる出張の場合、Zoom等による遠隔授業を行う。その場合でも、学生は指定の教室に出席し、代理の先生やTAによる出席確認を受ける必要がある。 |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
- 実務経験有り:講義担当教員は画像処理・画像認識に関する研究開発および実運用(例:設備監視・画像計測・ロボット視覚等)に従事した経験を有し、授業内で代表的手法の実装上の注意点や実応用での評価観点を紹介する。 - オフィスアワー:授業後、またはELMS/メールで個別に調整し周知する。 |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 1学期 /First Quarter |
|---|---|
| 対象学年 /Course for; |
4年 |
| 単位数 /Credits |
3.0 |
| 責任者 /Coordinator |
成瀬 継太郎 |
| 担当教員名 /Instructor |
成瀬 継太郎 |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
- |
| 更新日/Last updated on | 2026/02/06 |
|---|---|
| 授業の概要 /Course outline |
現代社会ではコンピュータは様々な機器の制御に広く用いられ、制御などの知識が必要不可欠となっている。本科目ではコンピュータ科学・工学専攻の学生のための、ロボット工学と自動制御理論の基礎を与えるものである。とくに実世界において制御理論の中心であるフィードバック制御の概念を学ぶことと、ロボットを制御するための基本的な理論と考え方を習得することに主眼を置く。また講義だけではなく、演習を通じてより深い理解を目指す。 [対応する学習・教育到達目標] (A) 技術者としての専門的・倫理的責任を自覚し、情報科学技術を駆使して社会における要求を分析し、技術的課題を設定・解決・評価することができる [コンピテンシーコード] C-AL-002-1, C-AL-005-1 |
| 授業の目的と到達目標 /Objectives and attainment goals |
ロボット⼯学に関しては、ロボットの運動を表現するための数学的な⼿法である運動学とプランニング⼿法を学ぶ。そして学⽣は (1) コンフィグレーション空間と運動⽅程式を学ぶことにより、ロボットの運動をコンピュータ内で表現できるようになる。 (2) ⼈⼯ポテンシャル法、ロードマップ法、セル分解法などのプランニング⼿法を学ぶことにより、ロボットの動作計画ができるようになる。 ⼀⽅、⾃動制御理論に関しては基本的な考え⽅であるフィードバック制御を学ぶ。そして学⽣は (1) 伝達関数、ブロック線図などを学ぶことにより、簡単なフィードバック制御を実現できるようになる。 (2) 時間遅れ要素と定常誤差を学ぶことにより、制御系の安定性を解析できるようになる。 (3) 与えられたシステムのPID制御を構築できるようになる。また最後にロボットシステムの構成について学ぶ。 |
| 授業スケジュール /Class schedule |
各回の授業は、はじめの2 限分を講義形式で実施し、残りの1 限分を演習形式で実施する。 第1週 講義の概要と序論 第2週 円形ロボットのコンフィギュレーション空間 第3週 矩形ロボットとロボットアームのコンフィギュレーション空間 第4週 ⼈⼯ポテンシャル法 第5週 ロードマップ法 第6週 セル分解法 第7週 サンプリングに基づく経路⽣成 第8週 ロボットの運動⽅程式 第9週 フィードバック制御の原理 第10週 時間遅れ要素と定常誤差 第11週 制御システムの安定性 第12週 PID制御 第13週 フィードバック制御の利点 第14週 まとめ [予習・復習] 事前学習に関しては、授業計画に示した授業内容について講義資料の該当ページの予習をしておくこと。また講義資料に含まれるサンプルコードを実装し、動作を検証すること。 事後学習としては、演習時間内に完了しなかった課題を次の授業までに完了すること。さらに授業中に指定された発展的な課題や解析を行うこと。 毎回の予習・復習の目安は6~7 時間である。 |
| 教科書 /Textbook(s) |
なし。 必要な資料は、授業中に配布する。 |
| 成績評価の方法・基準 /Grading method/criteria |
クイズ:20% 演習:20% 期末試験:60% |
| 履修上の留意点 /Note for course registration |
関連科⽬として、コンピュータ理⼯学実験、プログラミングC++,線形システム理論。 |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
LMS |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 1学期 /First Quarter |
|---|---|
| 対象学年 /Course for; |
4年 |
| 単位数 /Credits |
3.0 |
| 責任者 /Coordinator |
ナッサーニ アラディン |
| 担当教員名 /Instructor |
ナッサーニ アラディン |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
通常のプログラミングの講座以外特に無し。 おすすめされた : L10: マルチメディアシステム概論 ITC02: Computer Graphics |
| 更新日/Last updated on | 2026/02/04 |
|---|---|
| 授業の概要 /Course outline |
本コースは、バーチャルリアリティ(VR)、拡張現実(AR)、複合現実(MR)を中心としたインタラクティブ技術分野への包括的な入門コースです。学生はヒューマンコンピュータインタラクション(HCI)と3Dユーザーインターフェース(UI)デザインの基本原理を探求し、業界標準ソフトウェアの実践的なスキルを習得します。 Unityを使用した開発パイプラインを扱います。主要なトピックには、3Dモデリング、物理シミュレーション、サウンドデザイン、ゲームエンジンプログラミングが含まれます。また、VRインタラクション、トラッキング、協調的MRについても学習します。 実践的なハンズオン演習を通じて、学生は独自の没入型仮想世界を作成します。最終グループプロジェクトでは、完全なインタラクティブXR体験を設計、開発、実装します。 |
| 授業の目的と到達目標 /Objectives and attainment goals |
[対応する学習成果] (A) 卒業生は、技術者としての専門的および倫理的責任を自覚し、社会の要請を分析し、情報科学技術を用いて社会における技術的問題を設定、解決、評価できる。 (C) 卒業生は、数学、自然科学、情報技術の専門知識と、それらの知識の習得を通じて培われた論理的思考や客観的判断などの科学的思考力を、問題解決に応用できる。 [コンピテンシーコード ] C-GV-001, C-HI-005 本コース終了時には、学生は以下のことができるようになります: Unity、Blender、Audacityなどの業界標準ツールの習熟度を示しつつ、ヒューマンコンピュータインタラクション(HCI)および3Dユーザーインターフェース(UI)デザインの原則を適用して、魅力的で没入感のある仮想世界、ゲーム、またはシミュレーションを作成し、独自のインタラクティブなVR、AR、またはMR体験を設計、開発、実装できる。 |
| 授業スケジュール /Class schedule |
[授業の内容と方法] 講義と演習: 第1回から第14回は、理論と、Unity、Blender、ゲームエンジンなどのツールを使用したハンズオン演習を組み合わせて行います。 グループワーク: 学生は最終プロジェクトの設計と開発において協力して取り組みます。 [授業スケジュール] 第1回: 概要と2D入門 第2回: 3D入門とBlender 第3回: ゲームエンジンとUnity 第4回: 物理シミュレーション 第5回: ゲームにおけるサウンド 第6回: Unityプログラミング 第7回: HMDとVR入門 第8回: VRインタラクション 第9回: VRイベントとハプティクス 第10回: VR UI 第11回: 身体化されたアバター (Embodied Avatars) 第12回: トラッキング 第13回: センシング 第14回: 協調的MR (Collaborative MR) 第15回: 最終プロジェクト [予習・復習] 予習: 講義ノートを確認し、セッション前に必要なソフトウェアアセットやパッケージをインストールしておくこと。 復習/課題: チェックポイント演習を完了し、スキルの確認を行うとともに、グループプロジェクトを着実に進めること。 授業外学習時間: 1回あたり6~7時間(3単位=総学習時間135時間に基づいて算出)。 |
| 教科書 /Textbook(s) |
担当教員、TA、SAが作成した講義ノート。 The Vr Book: Human-centered Design for Virtual Reality Jason Jerald 978-1970001129 Research Methods in Human-Computer Interaction Jonathan Lazar 978-0470723371 |
| 成績評価の方法・基準 /Grading method/criteria |
本コースの課題の大半はハンズオンのラボ演習であり、デザインの革新性と独創性を育むためにデジタルコンテンツ制作ツールの創造的な活用を重視します。演習は、魅力的でインタラクティブなVR/AR体験を作成するための特定スキルを確認するものです。コース全体を通じて定期的なフィードバックが提供され、学生の作品の改善を指導します。 コースの評価内訳は以下の通りです: 小テスト (Quizzes): 25% 課題 (Assignments): 35% グループプロジェクト (Group Project): 40% これらの評価により、コース全体を通じた学生の学習と達成度を総合的に評価します。 |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
Related web pages: Photopea image editor: https://www.photopea.com PhotoBooth photo capture: https://support.apple.com/ja-jp/guide/photo-booth/welcome/mac Photos photo manipulation: https://www.apple.com/jp/macos/photos/ Blender: https://www.blender.org (https://blender.jp) Unity: https://unity.com/ja Unity チュートリアル: https://unity.com/jp/learn/tutorials Google Cardboard: https://arvr.google.com/cardboard/?hl=ja, https://developers.google.com/cardboard?hl=ja, https://ja.wikipedia.org/wiki/Google_Cardboard Audacity audio editor: http://audacity.sourceforge.net/?lang=ja macOS "say" TTS (text-to-speech) utility: https://support.apple.com/en-is/guide/mac-help/mh27448/mac GarageBand: https://www.apple.com/jp/mac/garageband/ Vuforia: https://developer.vuforia.com Snap AR & Lens Studio https://ar.snap.com ZIG SIM https://zig-project.com HCI Research https://www.sciencedirect.com/book/9780128053904/research-methods-in-human-computer-interaction このコースの講師は、開発、研究、指導を含め、VRとARの経験があります。 |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 1学期 /First Quarter |
|---|---|
| 対象学年 /Course for; |
3年 |
| 単位数 /Credits |
4.0 |
| 責任者 /Coordinator |
陳 文西 |
| 担当教員名 /Instructor |
陳 文西, チョオン コン タン, ワン ジーシャン |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
- |
| 更新日/Last updated on | 2026/01/21 |
|---|---|
| 授業の概要 /Course outline |
Signals and systems are present in any aspects of our world. The examples of signals are speech, audio, image and video signals in consumer electronics such as TV, PC, and smartphone; vital signs in medical systems; electronic radar waveforms in military equipment. Signal processing is concerned with the representation, transformation and manipulation of signals, and extraction of the significant information contained in signals. For example, we may wish to remove the noise in speech signals to make them clear, or to enhance an image to make it more natural. Signal processing is one of the fundamental theories and techniques to construct modern information systems. During the last century, lots of theories and methods have been proposed and widely studied in signal processing. This course includes the concept of continuous-time and discrete-time signals, representations of signals in time, frequency, and other transform domains, representations and analyses of systems, filter structures and designs. The course is a prerequisite course for your further studying on other related courses, such as voice processing, image processing, audio and video signal compressing, pattern recognition and classification, biomedical signal processing, development of communication and security systems, and so forth. |
| 授業の目的と到達目標 /Objectives and attainment goals |
[Corresponding Learning Outcomes] (A) Graduates are aware of their professional and ethical responsibilities as an engineer, and are able to analyze societal requirements, and set, solve, and evaluate technical problems using information science technologies in society. (B) This course is to provide students with the foundations and tools of signal processing, particularly the time-invariant system in both continuous and discrete domains. We will mainly study the following topics: signal representation in time domain, Fourier transform, sampling theorem, linear time-invariant system, discrete convolution, z-transform, discrete Fourier transform, and discrete filter design. After this course, the students should be able to understand how to analyze a given signal or system using various transforms; how to process signals to make them more useful; and how to design a signal processor (digital filter) for a given problem. |
| 授業スケジュール /Class schedule |
Prof. TRUONG’s Class 1. Introduction to Signals and Systems 2. Linear Time-Invariant System (continuous-time) 3. Linear Time-Invariant System (discrete-time) 4. Continuous Fourier Series and Fourier Transform 5. Discrete Fourier Series, Fourier Transform, and FFT 6. Fourier Transform Analysis of Signals and Systems 7. Midterm exam 8. Laplace Transform 9. Z-Transform 10. Structures for Digital Filters I: FIR Filter 11. Digital Filter Design I: FIR Filter 12. Structures for Digital Filters II: IIR Filter 13. Digital Filter Design II: IIR Filter 14. Applications of Signal Processing Prof. CHEN and WANG’s Class 1. Introduction to Signals and Systems 2. Linear Time-Invariant System (continuous-time) 3. Linear Time-Invariant System (discrete-time) 4. Continuous Fourier Series and Fourier Transform 5. Discrete Fourier Series, Fourier Transform, and FFT 6. Fourier Transform Analysis of Signals and Systems 7. Laplace Transform 8. Z-Transform 9. Structures for Digital Filters I: FIR Filter 10. Digital Filter Design I: FIR Filter 11. Structures for Digital Filters II: IIR Filter 12. Digital Filter Design II: IIR Filter 13. Applications of Signal Processing 14. Review |
| 教科書 /Textbook(s) |
Textbooks: 1. Schaum's Outline of Signals and Systems, (Schaum's Outlines) 2019/10/16 Hsu, Hwei P., 3835 Yen 2. Schaum’s Outline of Digital Signal Processing, (Schaum's Outlines) 2011/9/7 Hayes, Monson H., 3658 Yen Reference books: 1. Digital Signal Processing: A Computer-Based Approach 2010/9/10, Sanjit K. Mitra, 20106 Yen 2. ディジタル信号処理(第2版・新装版)–2020/12/17, 萩原 将文 (著)、森北出版、2420 円 3. MATLAB対応 ディジタル信号処理(第2版)–2021/11/12, 川又政征 (著), 阿部正英 (著), 八巻俊輔 (著), 樋口龍雄 (監修)、森北出版、3630 円 |
| 成績評価の方法・基準 /Grading method/criteria |
Prof. TRUONG’s Class * Quizzes: 10% * Exercises: 40% * Mid-term exam: 20% * Final exam: 30% Prof. CHEN and WANG’s Class * Quizzes: 10% * Exercises: 40% * Final exam: 50% |
| 履修上の留意点 /Note for course registration |
None |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
1. Instructors The course instructor Wenxi Chen has practical working experience. He worked for Nihon Kohden Industrial Corp. for 5 years where he was involved in R&D of bioinstrumentation, signal processing and data analysis. Based on his experience, he can teach the basis of signal processing and linear systems. The course instructor Cong Thang Truong has practical working experiences. He worked for Electronics and Telecommunications Research Institute (ETRI) of South Korea for 5 years where he was involved in R&D of multimedia signal processing and communications. He also actively contributed in ISO/IEC & ITU-T standards of signals and systems for more than 10 years. Based on his experiences, he can teach the basics of signal processing and linear systems. The course instructor Zhishang Wang has practical working experience. He had performed computational techniques for analyzing and processing image data at University of Freiburg for 3 years and had performed data processing and analysis at the University of Aizu for 5 years. He had also conducted research on data analysis in collaboration with Rexev Corp. Based on his experiences, he can teach the basics of signal processing and linear systems. 2. MOODLE for Handouts, Quizzes and Exercises https://elms.u-aizu.ac.jp/login/index.php 3. MIT OpenCourseWare "Signals and Systems" https://ocw.mit.edu/resources/res-6-007-signals-and-systems-spring-2011/index.htm |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 1学期 /First Quarter |
|---|---|
| 対象学年 /Course for; |
4年 |
| 単位数 /Credits |
3.0 |
| 責任者 /Coordinator |
ヴィジェガス オロズコ ジュリアン アルベルト |
| 担当教員名 /Instructor |
ヴィジェガス オロズコ ジュリアン アルベルト, ナッサーニ アラディン |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
LI10 Introduction to Multimedia Systems |
| 更新日/Last updated on | 2026/01/29 |
|---|---|
| 授業の概要 /Course outline |
Hearing is arguably the second most important sensory modality, and it is sometimes preferable to vision for displaying and acquiring information. For example, a car navigation system delivers guidance using speech, or you verbally ask your mobile phone to dial a number. In this course, we briefly review the main characteristics of sound, audio, and their processing for human-computer interaction. The purpose of this course is twofold: 1. To learn techniques for extracting information from acoustic signals. 2. To use acoustic signals to display information. |
| 授業の目的と到達目標 /Objectives and attainment goals |
[Corresponding Learning Outcomes] (A)Graduates are aware of their professional and ethical responsibilities as an engineer, and are able to analyze societal requirements, and set, solve, and evaluate technical problems using information science technologies in society. [Competency Codes] C-GV-001, C-GV-002 - Students will develop the ability to extract meaningful information from acoustic signals for use in various applications, including speech processing, music analysis, and environmental sound recognition. - Students will learn to apply acoustic signal processing techniques to explore and analyze large datasets, leveraging audio as a tool for big data applications. - By the end of the course, students will be able to evaluate and select the most appropriate audio processing techniques based on application constraints such as real-time performance, computational efficiency, and data accuracy. |
| 授業スケジュール /Class schedule |
1 Course overview, introduction to Pure-data 2 Physics of sound 3 Sound waves and rooms 4 Sound perception 5 Sound perception (continuation) 6 Audio signals 7 Audio signals (continuation) 8 Electroacoustics, human voice, and musical instruments 9 Time-frequency processing of audio 10 Digital filters & audio effects 11 Spatial hearing 12 Sonification 13 Speech technologies (synthesis) 14 Speech technologies (recognition) |
| 教科書 /Textbook(s) |
• V. Pulkki and M. Karjalainen, Communication acoustics: an introduction to speech, audio and psychoacoustics. John Wiley & Sons, 2015. • T. Hermann, A. Hunt, and J. G. Neuhoff, The sonification handbook. Logos Verlag Berlin, 2011. • W. M. Hartmann, Signals, Sound, and Sensation. Modern acoustics and signal processing, Wood- bury, NY; USA: American Institute of Physics, 1997. • Various materials prepared by the instructor |
| 成績評価の方法・基準 /Grading method/criteria |
Exercises 40% Quizzes 30% Final exam 30% |
| 履修上の留意点 /Note for course registration |
This course is offered in English. |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
The course instructor has practical working experience. He worked as an Ikerbasque researcher for about three years at the laboratory of phonetics in the Basque Country University. Class: Lecture followed by Exercises |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 1学期 /First Quarter |
|---|---|
| 対象学年 /Course for; |
3年 |
| 単位数 /Credits |
3.0 |
| 責任者 /Coordinator |
本田 親寿 |
| 担当教員名 /Instructor |
本田 親寿, 高橋 成雄 |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
MA01 線形代数I、MA02 線形代数2、FU01 アルゴリズムとデータ構造、FU03 離散系論 |
| 更新日/Last updated on | 2026/02/06 |
|---|---|
| 授業の概要 /Course outline |
計算幾何学はコンピュータサイエンスの中で重要な分野の一つである。近年、大量のデータを扱う地理情報システム(GIS)やコンピュータグラフィクス(CG)、コンピュータ支援設計(CAD)、パターン認識、ロボティクスの分野などでは計算幾何学的問題を高速に処理することが求められている。 本科目の前半では計算幾何学の基本概念を理解し、後半では計算幾何学を前提にした様々な情報の可視化について学ぶ。 |
| 授業の目的と到達目標 /Objectives and attainment goals |
計算幾何学の基本的概念を理解し、それを念頭に置いたデータの可視化について応用できるようになる。 |
| 授業スケジュール /Class schedule |
次に挙げる講義各項目は、原則として2限分の講義形式で実施する(内容によっては増減する場合がある)。 前半の3回の演習では、ボロノイ図を用いた課題解決に取り組む。図を作成すること自体を目的とするのではなく、課題の設定から結果の解釈に至るまでの問題解決プロセスを重視する。各自が自らの考えを論理的に説明できることが求められる。演習の成果は、プレゼンテーション資料としてまとめ、提出する。 後半の4回の演習では、講義内容に対応した多次元データの可視化、ツリー構造の可視化、ネットワーク構造の可視化、テキスト内容の可視化をテーマとし、チュートリアル形式で学習を進める。後半の演習では、演習中に提示される具体的な問題に対し、演習ならびにその後の演習時間外に解答することを求める。 1, 前半部(計算幾何学) 講義内容 導入(応用例の紹介) 線分交差 ボロノイ図 凸包 ドロネー三角形分割 多角形の三角形分割 演習内容 ボロノイ図を用いた課題解決型演習(演習第1-3回) 2, 後半部(幾何学的関係を表すデータ可視化) 講義内容 散布図行列 平行座標表示 ツリー図 ツリーマップ ノードリンク図 接続行列 テキスト/ドキュメントの可視化 前半課題の発表およびディスカッション 演習内容 多次元データの可視化(演習第4回) ツリー構造の可視化(演習第5回) ネットワーク構造の可視化(演習第6回) テキスト内容の可視化(演習第7回) 講義の予習:1h 講義の復習:2-4h 演習の課題:1-4h |
| 教科書 /Textbook(s) |
事前に用意されるハンドアウト |
| 成績評価の方法・基準 /Grading method/criteria |
演習中に実施される前半と後半の課題の得点は、それぞれ総合評価の25%を占める。総合評価の残り50%は期末試験の得点であり、合計100点となる。 |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
コンピュータ・ジオメトリ 計算幾何学:アルゴリズムと応用 第3版 M. ドバーグ、他 浅野哲夫 訳 2010年 |
| コンピテンシーコード表を開く 科目一覧へ戻る |
| 開講学期 /Semester |
2026年度/Academic Year 4学期 /Fourth Quarter |
|---|---|
| 対象学年 /Course for; |
3年 |
| 単位数 /Credits |
3.0 |
| 責任者 /Coordinator |
矢口 勇一 |
| 担当教員名 /Instructor |
矢口 勇一, 白 寅天 |
| 推奨トラック /Recommended track |
- |
| 先修科目 /Essential courses |
- |
| 更新日/Last updated on | 2026/02/05 |
|---|---|
| 授業の概要 /Course outline |
コンピューターが自然言語を理解することは、人間と機械のコミュニケーション、ならびに膨大なテキスト情報の活用(検索・要約・抽出・分類等)において重要な基盤技術である。本授業では、Web等に存在する自然言語文書を対象に、テキストの取得・前処理から、特徴表現、分類・クラスタリング、情報抽出、構文解析、さらに情報検索システム(索引付け・ランキング・評価)までを一連のパイプラインとして学ぶ。演習ではPython(Google Colabを含む)とNLTK等のライブラリを用い、代表的アルゴリズムを実装・適用し、結果の比較と考察を通じて理解を深める。 |
| 授業の目的と到達目標 /Objectives and attainment goals |
[対応する学習・教育到達目標] (A) 技術者としての専門的・倫理的責任を自覚し、情報科学技術を駆使して社会における要求を分析し、技術的課題を設定・解決・評価することができる [コンピテンシーコード] C-IS-001, C-IS-002-1, C-IS-003, C-IS-004-2, C-IS-005-1, C-PL-003, C-PL-005, C-PL-007 [到達目標(学修成果の例)] • テキストデータを取得し、前処理(正規化・分かち書き・ストップワード等)を行える • 文書特徴(BoW/TF-IDF等)を構成し、類似度計算・次元削減・分類/クラスタリングに適用できる • 情報抽出(チャンク・固有表現等)や構文解析(CFG/依存)を通じて、文書から構造的情報を取り出せる • 検索システムの基本構成(索引付け・ランキング・評価指標)を説明し、簡単な検索機能を実装・評価できる |
| 授業スケジュール /Class schedule |
[授業科目の内容と方法] 各回の授業は、はじめの2限分を講義形式で実施し、残りの1限分を演習形式で実施する。講義では理論・代表手法・評価観点を解説し、演習ではPython(Google Colabを含む)とNLTK等を用いて手法を実装・適用し、結果の比較・考察を行う。必要に応じて、節目で課題講評・実践的フィードバックを行う。 [事前学修・事後学修] - 各回の授業に臨むにあたり、講義資料(スライド)および演習ノートブックの該当箇所を事前に読解すること。授業後は、演習内容の再実行・パラメータ変更・結果の読み取りを行い、理解を確認すること。 - 本授業の授業外学修時間の目安は各回 430分とし、内訳は 予習60分(スライド読解+演習コード読解)、復習70分(演習再現・整理)、課題150分(該当週の課題作業:平均)、追加復習150分(スライド該当箇所の精読、参考図書・論文読解、期末試験向けドリル)とする。 - レポート課題(A1〜A7)は、原則として2回分の授業内容を1課題として構成し、1課題あたり300分(=150分×2回相当)の作業量を想定する(各課題は実装・比較・評価・考察・レポート作成を含む)。提出猶予は原則2週間とする。 [授業計画(14回)] 第1回 • 講義:Introduction to Information Retrieval and NLP(情報検索とは/NLPの役割/全体パイプライン/演習環境) • 演習:Colab/Python準備、NLTK導入、簡単なテキスト処理の実行確認 第2回 • 講義:Text Acquisition and Corpus Basics(文字コード・Web取得・HTML/構造化・コーパスとアノテーション) • 演習:Rawテキスト取得、前処理の導入(encoding/HTML除去等) 第3回 • 講義:Tokenization and Normalization(文/単語分割、正規表現、stopwords、stemming/lemmatizing) • 演習:Tokenizer比較、正規化パイプライン作成 第4回 • 講義:Language Model Basics(collocation/concordance、n-gram、確率的見方) • 演習:bigram/trigramの集計、簡単な言語モデルの観察 第5回 • 講義:POS Tagging and Taggers(系列ラベリング、未知語問題、ルール/統計、評価) • 演習:tagger構築と評価、エラー分析 第6回 • 講義:Word Sense Disambiguation(特徴量設計、Naive Bayes、確率・尤度、発展:HMM概念) • 演習:WSDのベースライン分類器、特徴量比較 第7回 • 講義:Document Representation(one-hot/BoW/TF-IDF、類似度、疎行列) • 演習:TF-IDF作成、類似度計算、簡単なランキング 第8回 • 講義:Dimension Reduction and Distributed Representations(PCA/SVD/LSA、概念、word2vec概要) • 演習:次元削減の可視化、表現の比較 第9回 • 講義:Document Classification & Clustering(k-means、線形分類、Naive Bayes、評価指標) • 演習:分類/クラスタリングの比較実験 第10回 • 講義:Information Extraction(chunking/chinking、NER、relation、メタ情報抽出) • 演習:IEパイプラインの実装、抽出結果の評価 第11回 • 講義:Syntax & Parsing(句構造・CFG、依存構造、パーサの考え方) • 演習:CFG/Dependencyの実行と分析 第12回 • 講義:Information Retrieval I(IRシステム構成、indexing、ranking:TF-IDF/BM25、評価:P/R/F1, MAP, NDCG) • 演習:簡易IR(インデクシング→検索→評価)の実装 第13回 • 講義:Information Retrieval II(リンク解析:PageRank/HITS、スケール、メタ検索、運用上の論点) • 演習:ランキング手法の比較、評価設計 第14回 • 講義:Japanese / Multibyte NLP & IR(日本語資源、形態素解析、膠着語特性、日本語検索の課題、応用) • 演習:日本語データでの前処理・特徴表現・検索の確認、全体のまとめ ※期末試験:定期試験期間に実施(学部の試験は14回の授業に含めない)、知識問題+アルゴリズム問題を出題する。 [課題(A1〜A7)一覧(7回分)] 課題A1(L1–L2対応)Python/NLTK導入+テキスト取得・前処理(10点) 課題A2(L3–L4対応)Tokenization/正規化+n-gram観察(10点) 課題A3(L5–L6対応)Tagging/WSD(分類器+特徴量設計)(10点) 課題A4(L7–L8対応)文書表現+次元削減(TF-IDF/LSA等)(10点) 課題A5(L9対応)分類・クラスタリング比較(単発)(10点) 課題A6(L10–L11対応)情報抽出+構文(IE/Parsing)(10点) 課題A7(L12–L13対応)簡易IRシステム統合(索引付け→検索→評価)(10点) 運用(共通): 各課題は原則 2週間の提出猶予を設ける 提出物:PDFレポート+コード(Colab/Notebookまたは同等) |
| 教科書 /Textbook(s) |
Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit(入門 自然言語処理) Steven Bird, Ewan Klein, Edward Loper 著(O’Reilly/オライリージャパン) |
| 成績評価の方法・基準 /Grading method/criteria |
課題(A1〜A7):10点×7回=70点 期末試験:30点 合計100点 提出期間中に初提出できない課題は 4点減点(0点を下回る場合は0点)。 |
| 履修上の留意点 /Note for course registration |
• 出席は講義・演習の双方を含む。欠席について事前に教員へ申し出がある場合は、提出遅延等の扱いを状況に応じて考慮する(病欠、就活、イベント参加等)。 • 教員が国際会議などによる出張の場合、Zoom等による遠隔授業を行う。その場合でも、学生は指定の教室に出席し、代理の先生やTAによる出席確認を受ける必要がある。 |
| 参考(授業ホームページ、図書など) /Reference (course website, literature, etc.) |
- オフィスアワー:授業後、またはELMS/メールで個別に調整し周知する。 - 参考ページ: Natural Language Toolkit(NLTK)https://www.nltk.org/ , NLTK Book https://www.nltk.org/book/, 情報検索の基礎(共立出版) |