Computer Vision ์ฉ์ด ํด์ฆ
๋ฌธ์ 1 / 10
Core Concepts and Terminology
1. Perception and Processing (์ง๊ฐ๊ณผ ์ฒ๋ฆฌ)
- Perceive (๋์ฌ): ์ธ์งํ๋ค, ๊ฐ์งํ๋ค
- Example: Computers can perceive subtle differences in images that humans might miss.
- Perceptual (ํ์ฉ์ฌ): ์ง๊ฐ์, ์ธ์ง์
- Example: Perceptual computing aims to mimic human sensory processing.
- Misperception (๋ช
์ฌ): ์ค์ธ, ์๋ชป๋ ์ธ์
- Example: Image artifacts can lead to misperception in computer vision systems.
2. Visual Properties (์๊ฐ์ ํน์ฑ)
- Translucency (๋ช
์ฌ): ๋ฐํฌ๋ช
์ฑ
- Example: Processing translucency in images requires advanced rendering techniques.
- Subtle (ํ์ฉ์ฌ): ๋ฏธ๋ฌํ, ์ฌ์ธํ
- Example: The algorithm can detect subtle changes in lighting conditions.
- Shading (๋ช
์ฌ): ์์
- Example: Proper shading analysis helps in understanding 3D structures.
3. Image Analysis (์ด๋ฏธ์ง ๋ถ์)
- Effortlessly (๋ถ์ฌ): ์์ํ๊ฒ, ์ด๋ ค์ ์์ด
- Example: Modern AI systems effortlessly process thousands of images per second.
- Portrait (๋ช
์ฌ): ์ด์, ์ธ๋ฌผ ์ฌ์ง
- Example: Face detection algorithms are crucial for portrait photography.
- Rapid (ํ์ฉ์ฌ): ๋น ๋ฅธ, ์ ์ํ
- Example: Rapid image processing is essential for real-time applications.
4. Technical Processes (๊ธฐ์ ์ ๊ณผ์ )
- Delineate (๋์ฌ): ์ค๊ณฝ์ ๊ทธ๋ฆฌ๋ค, ๋ฌ์ฌํ๋ค
- Example: The algorithm can delineate object boundaries precisely.
- Causality (๋ช
์ฌ): ์ธ๊ณผ๊ด๊ณ
- Example: Understanding causality in scene analysis improves prediction accuracy.
- Radiometry (๋ช
์ฌ): ๋ฐฉ์ฌ์ธก์
- Example: Radiometry is fundamental to understanding light behavior in images.
5. Industrial Applications (์ฐ์
์ ์์ฉ)
- Inspection (๋ช
์ฌ): ๊ฒ์ฌ, ์ ๊ฒ
- Example: Automated visual inspection systems in manufacturing.
- Retail (๋ช
์ฌ): ์๋งค, ์ ํต
- Example: Computer vision enhances retail analytics and customer behavior tracking.
- Warehouse (๋ช
์ฌ): ์ฐฝ๊ณ
- Example: Automated warehouse systems use computer vision for inventory management.
- Logistics (๋ช
์ฌ): ๋ฌผ๋ฅ
- Example: Computer vision optimizes logistics operations through package tracking.
6. Advanced Applications (๊ณ ๊ธ ์์ฉ)
- Intra-operative (ํ์ฉ์ฌ): ์์ ์ค์
- Example: Intra-operative imaging assists surgeons during procedures.
- Morphology (๋ช
์ฌ): ํํํ
- Example: Mathematical morphology is used in image processing.
- Surveillance (๋ช
์ฌ): ๊ฐ์, ๋ณด์
- Example: Video surveillance systems employ advanced computer vision techniques.
7. Image Processing Techniques (์ด๋ฏธ์ง ์ฒ๋ฆฌ ๊ธฐ๋ฒ)
- Stitching (๋ช
์ฌ): ์ด๋ฏธ์ง ์ ํฉ
- Example: Panorama creation through image stitching.
- Overlapping (ํ์ฉ์ฌ): ์ค์ฒฉ๋๋
- Example: Overlapping images are used in 3D reconstruction.
- Bracketing (๋ช
์ฌ): ๋ธ๋ผ์ผํ
(๋
ธ์ถ ๋จ๊ณ ์กฐ์ )
- Example: HDR images are created using exposure bracketing.
- Morphing (๋ช
์ฌ): ๋ณํ
- Example: Face morphing creates smooth transitions between images.
8. Research and Development (์ฐ๊ตฌ ๊ฐ๋ฐ)
- Meticulously (๋ถ์ฌ): ๊ผผ๊ผผํ๊ฒ, ์ ๊ตํ๊ฒ
- Example: AI models must be meticulously trained for optimal performance.
- Layer-wise, sample-wise (ํ์ฉ์ฌ): ์ธต๋ณ, ์ํ๋ณ
- Example: Neural networks are analyzed layer-wise for better understanding.
- Preexisting (ํ์ฉ์ฌ): ๊ธฐ์กด์, ์ด๋ฏธ ์กด์ฌํ๋
- Example: Preexisting models can be fine-tuned for specific tasks.
- Plausible (ํ์ฉ์ฌ): ๊ทธ๋ด๋ฏํ, ํ๋นํ
- Example: The system generates plausible reconstructions of 3D scenes.
9. Industrial Human-Robot Collaboration (์ฐ์
ํ์ฅ ์ธ๊ฐ-๋ก๋ด ํ์
)
- Pose Forecasting (๋ช
์ฌ๊ตฌ): ์์ธ ์์ธก
- Example: Pose forecasting is crucial for safe human-robot interaction.
- Ablation (๋ช
์ฌ): (์ ๊ฒฝ๋ง ๋ฑ์์) ์ผ๋ถ ์ ๊ฑฐ, ์ ์
- Example: Ablation studies help understand the contribution of different model components.
- Endow (๋์ฌ): ๋ถ์ฌํ๋ค, ์ฃผ๋ค
- Example: The new sensor endows the robot with better perceptive capabilities.
- Perceptive (ํ์ฉ์ฌ): ์ง๊ฐํ๋, ํต์ฐฐ๋ ฅ ์๋
- Example: Perceptive robots can adapt to dynamic environments.
- Harm (๋ช
์ฌ/๋์ฌ): ํด, ์์ / ํด๋ฅผ ๋ผ์น๋ค
- Example: The primary goal is to prevent any harm to the human worker.
- Transmission of contact wrenches (๋ช
์ฌ๊ตฌ): ์ ์ด๋ ฅ ์ ๋ฌ
- Example: Accurate transmission of contact wrenches is vital for haptic feedback.
- On-the-fly (๋ถ์ฌ๊ตฌ): ์ฆ์์์, ์ค์๊ฐ์ผ๋ก
- Example: The robot can adjust its path on-the-fly to avoid obstacles.
- Adjacency (๋ช
์ฌ): ์ธ์ , ๊ทผ์
- Example: Adjacency matrices are used to represent connections in a graph.
- Sparse (ํ์ฉ์ฌ): ํฌ์ํ, ๋๋ฌธ๋๋ฌธ ์๋
- Example: Sparse data can be challenging for some machine learning models.
- Sparsity (๋ช
์ฌ): ํฌ์์ฑ
- Example: Sparsity is a desirable property in many high-dimensional datasets.
- Abide (๋์ฌ): (๊ท์น ๋ฑ์) ์ค์ํ๋ค, ์งํค๋ค
- Example: Robots must abide by safety protocols.
- Genuine (ํ์ฉ์ฌ): ์ง์ง์, ์ง์ ํ
- Example: The system aims to achieve genuine collaboration between humans and robots.
- Foresee (๋์ฌ): ์๊ฒฌํ๋ค, ์์ธกํ๋ค
- Example: It is difficult to foresee all possible scenarios in a complex environment.
- Exploited (๋์ฌ, ์๋ํ ๋๋ ๊ณผ๊ฑฐํ): ํ์ฉ๋, ์ด์ฉ๋
- Example: The robotโs capabilities were fully exploited in the task.
- Aspect (๋ช
์ฌ): ์ธก๋ฉด, ์์
- Example: Safety is a critical aspect of human-robot collaboration.
- Intersection (๋ช
์ฌ): ๊ต์ฐจ์ , ๊ต์งํฉ
- Example: The intersection of AI and robotics has led to many innovations.
- Prune (๋์ฌ): (๊ฐ์ง ๋ฑ์) ์น๋ค, ์ ๊ฑฐํ๋ค, ๊ฐ๊ฒฐํ๊ฒ ํ๋ค
- Example: Pruning the neural network can reduce its complexity.
- Factorize (๋์ฌ): ์ธ์๋ถํดํ๋ค, ์์ธ์ผ๋ก ๋ถ์ํ๋ค
- Example: We can factorize the matrix to understand its underlying structure.
- Adjacency (๋ช
์ฌ): ์ธ์ , ๊ทผ์ (์ค๋ณต๋ ๋จ์ด์
๋๋ค. ํ์์ ํ๋๋ฅผ ์ญ์ ํ๊ฑฐ๋ ๋ค๋ฅธ ์๋ฏธ๋ก ์ฌ์ฉ๋ ๊ฒฝ์ฐ ์ค๋ช
์ ์ถ๊ฐํด์ฃผ์ธ์.)
- Example: Adjacency lists are another way to represent graph connections.
- Spectral (ํ์ฉ์ฌ): ์คํํธ๋ผ์, ๋ถ๊ด์
- Example: Spectral analysis is used in various sensor technologies.
- Coarse (ํ์ฉ์ฌ): ๊ฑฐ์น, ๋๋ต์ ์ธ
- Example: A coarse estimation was made initially, followed by a finer adjustment.
- Sparsifying (๋์ฌ/ํ์ฉ์ฌ): ํฌ์ํํ๋
- Example: Sparsifying techniques are used to reduce data dimensionality.
10. Modern Artificial Intelligence (ํ๋ ์ธ๊ณต์ง๋ฅ)
- Formalize (๋์ฌ): ๊ณต์ํํ๋ค, ํ์ํํ๋ค
- Example: We need to formalize the problem statement before designing a solution.
- Density (๋ช
์ฌ): ๋ฐ๋
- Example: Probability density functions describe the likelihood of a continuous variable.
- PDF (Probability Density Function) (๋ช
์ฌ): ํ๋ฅ ๋ฐ๋ ํจ์
- Example: The PDF of a normal distribution is bell-shaped.
- PMF (Probability Mass Function) (๋ช
์ฌ): ํ๋ฅ ์ง๋ ํจ์
- Example: The PMF is used for discrete random variables.
- Accomplish (๋์ฌ): ์ฑ์ทจํ๋ค, ๋ฌ์ฑํ๋ค
- Example: The AI model was able to accomplish the task with high accuracy.
- Observed (ํ์ฉ์ฌ/๋์ฌ ๊ณผ๊ฑฐํ): ๊ด์ฐฐ๋
- Example: The observed data was used to train the model.
- Intractable (ํ์ฉ์ฌ): ๋ค๋ฃจ๊ธฐ ํ๋ , ์ฒ๋ฆฌํ๊ธฐ ์ด๋ ค์ด
- Example: Some problems are computationally intractable.
- Coefficient (๋ช
์ฌ): ๊ณ์
- Example: The coefficients of the linear regression model were estimated.
- Era (๋ช
์ฌ): ์๋
- Example: We are in the era of big data and artificial intelligence.
- Deluge (๋ช
์ฌ): ํญ์ฃผ, ์๋, ํ์
- Example: Researchers face a deluge of data from various sources.
- Apparently (๋ถ์ฌ): ๋ช
๋ฐฑํ, ๋ณด์ํ๋
- Example: Apparently, the new algorithm outperforms the old one.
- Sufficient (ํ์ฉ์ฌ): ์ถฉ๋ถํ
- Example: Sufficient data is required to train a robust model.
- Altering (๋์ฌ/ํ์ฉ์ฌ): ๋ณ๊ฒฝํ๋
- Example: Altering the hyperparameters can significantly affect model performance.
- Ability to fix (๊ตฌ๋ฌธ): ~์ ๊ณ ์น๋ ๋ฅ๋ ฅ
- Example: The system has the ability to fix minor errors automatically.
- Devising (๋์ฌ): ๊ณ ์ํ๋ค, ์ฐฝ์ํ๋ค
- Example: Devising new algorithms is a key part of AI research.
- Empirical (ํ์ฉ์ฌ): ๊ฒฝํ์ ์ธ, ์ค์ฆ์ ์ธ
- Example: Empirical results show the effectiveness of the proposed method.
- Theorem (๋ช
์ฌ): ์ ๋ฆฌ (์ํ, ๋
ผ๋ฆฌํ)
- Example: The Bayesโ theorem is fundamental in probability theory.
- Criterion (๋ช
์ฌ): ๊ธฐ์ค, ํ์ค (๋ณต์ํ: criteria)
- Example: Accuracy is a common criterion for evaluating classification models.
- Impose (๋์ฌ): ๋ถ๊ณผํ๋ค, ๊ฐ์ํ๋ค, ๋์
ํ๋ค
- Example: We can impose constraints on the optimization problem.
- Regularization (๋ช
์ฌ): ์ ๊ทํ (๊ธฐ๊ณ ํ์ต)
- Example: Regularization helps prevent overfitting in machine learning models.
- Implicitly (๋ถ์ฌ): ์๋ฌต์ ์ผ๋ก, ํจ์ถ์ ์ผ๋ก
- Example: The model implicitly learns features from the data.
- Explicitly (๋ถ์ฌ): ๋ช
์์ ์ผ๋ก, ๋ช
๋ฐฑํ
- Example: Some parameters need to be explicitly defined.
- Preferences (๋ช
์ฌ): ์ ํธ๋
- Example: The recommendation system learns user preferences over time.
- Validation (๋ช
์ฌ): ๊ฒ์ฆ, ํ์ธ
- Example: Cross-validation is used to assess model performance.
- Problematic (ํ์ฉ์ฌ): ๋ฌธ์ ๊ฐ ์๋, ๋ฌธ์ ๊ฐ ๋ง์
- Example: Handling missing data can be problematic.
- Associate (๋์ฌ): ์ฐ๊ด์ํค๋ค, ๊ด๋ จ์ง๋ค
- Example: The goal is to associate input features with output labels.
- Evaluations (๋ช
์ฌ): ํ๊ฐ
- Example: Multiple evaluations were conducted to ensure robustness.
- Converge (๋์ฌ): ์๋ ดํ๋ค, ํ ์ ์ ๋ชจ์ด๋ค
- Example: The optimization algorithm should converge to a good solution.
- Convex (ํ์ฉ์ฌ): ๋ณผ๋กํ (์ํ)
- Example: Convex optimization problems are generally easier to solve.
Writing Technical Papers (๋
ผ๋ฌธ ์์ฑ)
- Inventing (๋์ฌ): ๋ฐ๋ช
ํ๋ค, ๊ณ ์ํ๋ค
- Example: Inventing new algorithms for efficient image processing.
- Revising (๋์ฌ): ์์ ํ๋ค, ๊ต์ ํ๋ค
- Example: Revising the methodology section of the research paper.
- Drafting (๋์ฌ): ์ด์์ ์์ฑํ๋ค
- Example: Drafting the experimental results section.
11. ์ํ/์ ํ๋์/ํ๋ฅ /๋จธ์ ๋ฌ๋ ์ฉ์ด ์ ๋ฆฌ
- Vector: ํฌ๊ธฐ์ ๋ฐฉํฅ์ ๊ฐ์ง๋ ์ํ์ ๊ฐ์ฒด. ์ผ๋ฐ์ ์ผ๋ก ์ซ์ ๋ชฉ๋ก์ผ๋ก ํํ๋ฉ๋๋ค.
- Matrix: ํ๊ณผ ์ด๋ก ๋ฐฐ์ด๋ ์ซ์์ ์ง์ฌ๊ฐํ ๋ฐฐ์ด.
- Inner Product (Dot Product): ๋ ๋ฒกํฐ๋ฅผ ๊ณฑํ์ฌ ์ค์นผ๋ผ ๊ฐ์ ์ป๋ ์ฐ์ฐ. ๋ฒกํฐ์ ์ ์ฌ์ฑ์ ์ธก์ ํ๋ ๋ฐ ์ฌ์ฉ๋ฉ๋๋ค.
- Outer Product: ๋ ๋ฒกํฐ๋ฅผ ๊ณฑํ์ฌ ํ๋ ฌ์ ์ป๋ ์ฐ์ฐ.
- Matrix-Vector Product: ํ๋ ฌ๊ณผ ๋ฒกํฐ๋ฅผ ๊ณฑํ์ฌ ๋ฒกํฐ๋ฅผ ์ป๋ ์ฐ์ฐ. ๋ฒกํฐ๋ฅผ ํ๋ ฌ์ ์ด๋ค์ ์ ํ ๊ฒฐํฉ์ผ๋ก ํํํ ์ ์์ต๋๋ค.
- Matrix-Matrix Product: ๋ ํ๋ ฌ์ ๊ณฑํ์ฌ ํ๋ ฌ์ ์ป๋ ์ฐ์ฐ.
- Identity Matrix: ์ฃผ๋๊ฐ์ ์์๊ฐ ๋ชจ๋ 1์ด๊ณ ๋๋จธ์ง ์์๋ ๋ชจ๋ 0์ธ ์ ๋ฐฉ ํ๋ ฌ. ํ๋ ฌ ๊ณฑ์
์์ ํญ๋ฑ์ ์ญํ ์ ํฉ๋๋ค.
- Diagonal Matrix: ์ฃผ๋๊ฐ์ ์์ ์ธ์ ๋ชจ๋ ์์๊ฐ 0์ธ ์ ๋ฐฉ ํ๋ ฌ.
- Transpose: ํ๋ ฌ์ ํ๊ณผ ์ด์ ๋ฐ๊พผ ์ฐ์ฐ (A>).
- Symmetric Matrix: ์ ์น์ ๊ฐ์ ์ ๋ฐฉ ํ๋ ฌ (A = A>).
- Trace: ์ ๋ฐฉ ํ๋ ฌ์ ์ฃผ๋๊ฐ์ ์์๋ค์ ํฉ (tr(A)).
- Norm: ๋ฒกํฐ ๋๋ ํ๋ ฌ์ โํฌ๊ธฐโ๋ฅผ ์ธก์ ํ๋ ํจ์. L1, L2, Lโ, Frobenius ๋
ธ๋ฆ ๋ฑ์ด ์์ต๋๋ค.
- Linear Independence: ๋ฒกํฐ ์งํฉ ๋ด์ ์ด๋ค ๋ฒกํฐ๋ ๋๋จธ์ง ๋ฒกํฐ๋ค์ ์ ํ ๊ฒฐํฉ์ผ๋ก ํํ๋ ์ ์๋ ์์ฑ.
- Rank: ํ๋ ฌ์ ์ ํ ๋
๋ฆฝ์ธ ํ ๋๋ ์ด์ ์ต๋ ๊ฐ์. ํ๋ ฌ์ ์ฐจ์ ๊ณต๊ฐ์ ์ผ๋ง๋ ์ ์ฑ์ฐ๋์ง๋ฅผ ๋ํ๋
๋๋ค.
- Invertible (Non-singular) Matrix: ์ญํ๋ ฌ์ด ์กด์ฌํ๋ ์ ๋ฐฉ ํ๋ ฌ.
- Inverse Matrix: ํ๋ ฌ A์ ๋ํด ๊ณฑํ์ ๋ ํญ๋ฑ ํ๋ ฌ์ ๋ง๋๋ ์ ์ผํ ํ๋ ฌ (A^-1).
- Orthogonal Vectors: ๋ด์ ์ด 0์ธ ๋ ๋ฒกํฐ. ์๋ก ์์ง์
๋๋ค.
- Normalized Vector: L2 ๋
ธ๋ฆ์ด 1์ธ ๋ฒกํฐ.
- Orthogonal Matrix: ์ด ๋ฒกํฐ๋ค์ด ์๋ก ์ง๊ตํ๋ฉฐ ์ ๊ทํ๋(์ง๊ท ์ง๊ต) ์ ๋ฐฉ ํ๋ ฌ (U>U = I = UU>). ์ญํ๋ ฌ์ด ์ ์น์ ๊ฐ์ต๋๋ค.
- Determinant: ์ ๋ฐฉ ํ๋ ฌ์ ๋ํด ์ ์๋๋ ์ค์นผ๋ผ ๊ฐ. ํ๋ ฌ์ด ๋ํ๋ด๋ ์ ํ ๋ณํ์ ์ํด ๊ณต๊ฐ์ ๋ถํผ๊ฐ ์ผ๋ง๋ ์ค์ผ์ผ๋ง๋๋์ง๋ฅผ ๋ํ๋
๋๋ค. ํ๋ ฌ์ด ํน์ด ํ๋ ฌ์ผ ๋ ํ๋ ฌ์์ 0์
๋๋ค.
- Quadratic Form: ์ ๋ฐฉ ํ๋ ฌ A์ ๋ฒกํฐ x์ ๋ํด x>Ax ํํ๋ก ํํ๋๋ ์ค์นผ๋ผ ๊ฐ.
- Positive Definite (PD) Matrix: ๋์นญ ํ๋ ฌ์ด๋ฉฐ, ๋ชจ๋ 0์ด ์๋ ๋ฒกํฐ x์ ๋ํด x>Ax > 0์ธ ํ๋ ฌ.
- Positive Semidefinite (PSD) Matrix: ๋์นญ ํ๋ ฌ์ด๋ฉฐ, ๋ชจ๋ ๋ฒกํฐ x์ ๋ํด x>Ax โฅ 0์ธ ํ๋ ฌ.
- Eigenvalue: ํ๋ ฌ A๋ฅผ ๊ณฑํ์ ๋ ๋ฒกํฐ์ ๋ฐฉํฅ์ ์ ์งํ๊ณ ํฌ๊ธฐ๋ง ฮป๋งํผ ์ค์ผ์ผ๋ง๋๋ ์ค์นผ๋ผ ๊ฐ (Ax = ฮปx).
- Eigenvector: ๊ณ ์ ๊ฐ์ ํด๋นํ๋ 0์ด ์๋ ๋ฒกํฐ (Ax = ฮปx).
- Gradient: ๋ค๋ณ์ ํจ์์ ๊ฐ ๋ณ์์ ๋ํ ํธ๋ฏธ๋ถ ๊ฐ๋ค์ ๋ฒกํฐ๋ก ๋ชจ์ ๋์ ๊ฒ (โf(x)). ํจ์์ ์ต๋ ์ฆ๊ฐ ๋ฐฉํฅ์ ๊ฐ๋ฆฌํต๋๋ค.
- Hessian: ๋ค๋ณ์ ํจ์์ ์ด์ฐจ ํธ๋ฏธ๋ถ ๊ฐ๋ค์ ํ๋ ฌ๋ก ๋ชจ์ ๋์ ๊ฒ (โยฒf(x)). ํจ์์ ๋ณผ๋ก์ฑ ๋๋ ์ค๋ชฉ์ฑ์ ํ๋จํ๋ ๋ฐ ์ฌ์ฉ๋ฉ๋๋ค.
- Random Variable: ์คํ์ ๊ฒฐ๊ณผ๋ฅผ ์์น์ ์ผ๋ก ๋ํ๋ด๋ ํจ์.
- Cumulative Distribution Function (CDF): ํ๋ฅ ๋ณ์๊ฐ ํน์ ๊ฐ๋ณด๋ค ์๊ฑฐ๋ ๊ฐ์ ํ๋ฅ ์ ๋ํ๋ด๋ ํจ์ (F_X(x) = P{X โค x}).
- Probability Density Function (PDF): ์ฐ์ ํ๋ฅ ๋ณ์์ ๋ถํฌ๋ฅผ ๋ํ๋ด๋ ํจ์. CDF์ ๋ฏธ๋ถ์ผ๋ก ์ป์ด์ง๋๋ค (p_X(x) = dF_X(x)/dx).
- Independent Random Variables: ๋ ํ๋ฅ ๋ณ์์ ๊ฒฐํฉ ๋ถํฌ๊ฐ ๊ฐ ํ๋ฅ ๋ณ์์ ์ฃผ๋ณ ๋ถํฌ์ ๊ณฑ์ผ๋ก ํํ๋ ์ ์๋ ๊ฒฝ์ฐ.
- Expected Value (Mean): ํ๋ฅ ๋ณ์์ โํ๊ท โ ๊ฐ. ์ด๋ก ์ ์ธ ๋ถํฌ์ ๊ธฐ๋ฐํฉ๋๋ค (E[X] = โซx p_X(x) dx).
-
Variance: ํ๋ฅ ๋ณ์๊ฐ ํ๊ท ์ฃผ๋ณ์ ์ผ๋ง๋ ํผ์ ธ ์๋์ง๋ฅผ ๋ํ๋ด๋ ์ธก๋ (Var(X) = E[ |
X - E[X] |
^2]). |
- Correlation: ๋ ํ๋ฅ ๋ณ์ ์ฌ์ด์ ์ ํ ๊ด๊ณ ๊ฐ๋๋ฅผ ๋ํ๋ด๋ ์ธก๋ (E[XY*]).
- Covariance: ๋ ํ๋ฅ ๋ณ์๊ฐ ํจ๊ป ๋ณํ๋ ์ ๋๋ฅผ ๋ํ๋ด๋ ์ธก๋ (Cov(X,Y) = E[(X - E[X])(Y - E[Y])*]).
- Random Vector: ์ฌ๋ฌ ๊ฐ์ ํ๋ฅ ๋ณ์๋ฅผ ๋ฌถ์ด์ ๋ฒกํฐ๋ก ํํํ ๊ฒ.
- Multivariate Gaussian (Normal) Distribution: ์ฌ๋ฌ ํ๋ฅ ๋ณ์์ ๊ฒฐํฉ ๋ถํฌ๊ฐ ๊ฐ์ฐ์์ ๋ถํฌ๋ฅผ ๋ฐ๋ฅด๋ ๊ฒฝ์ฐ. ํ๊ท ๋ฒกํฐ์ ๊ณต๋ถ์ฐ ํ๋ ฌ๋ก ์ ์๋ฉ๋๋ค.
- Jointly Gaussian Random Vector: ์์์ ์ ํ ๋ณํ์ ํ์ ๋ ๊ฒฐ๊ณผ๊ฐ ๊ฐ์ฐ์์ ํ๋ฅ ๋ณ์๊ฐ ๋๋ ๋๋ค ๋ฒกํฐ. ๊ฐ ์์๊ฐ ๊ฐ์ฐ์์์ด๋๋ผ๋ ๊ฒฐํฉ ๊ฐ์ฐ์์์ด ์๋ ์ ์์ต๋๋ค.
- Random Process: ์๊ฐ์ ๋ฐ๋ผ ๋๋ ๊ณต๊ฐ์ ๋ฐ๋ผ ๊ฐ์ด ๋ณํ๋ ํ๋ฅ ๋ณ์๋ค์ ๋ชจ์. ์ด ์ฐ๊ตฌ ๊ฐ์ด๋์์๋ 2์ฐจ์ ์ด์ฐ ๊ณต๊ฐ์์์ ๋๋ค ํ๋ก์ธ์ค๋ฅผ ๋ค๋ฃน๋๋ค.
- Power Spectrum (Power Spectral Density): ๊ด์ ์ ์์ฑ(Wide Sense Stationary, WSS) ๋๋ค ํ๋ก์ธ์ค์ ์๊ธฐ ์๊ด ํจ์(autocorrelation function)์ ์ด์ฐ ๊ณต๊ฐ ํธ๋ฆฌ์ ๋ณํ(DSFT). ๋๋ค ํ๋ก์ธ์ค์ ์ฃผํ์ ๊ตฌ์ฑ ์์๋ฅผ ๋ํ๋
๋๋ค.
- Loss Function: ๊ธฐ๊ณ ํ์ต ๋ชจ๋ธ์ ์์ธก๊ณผ ์ค์ ๊ฐ ์ฌ์ด์ ๋ถ์ผ์น ์ ๋๋ฅผ ์ธก์ ํ๋ ํจ์ (L(D(x), y)).
- Supervised Learning: ๋ชจ๋ธ ํ์ต์ ์
๋ ฅ ๋ฐ์ดํฐ(x)์ ํด๋น ์ ๋ต ๋ฐ์ดํฐ(y)๋ฅผ ์ฌ์ฉํ๋ ๋ฐฉ์.
- Empirical Loss Function: ์ค์ ํ์ต ๋ฐ์ดํฐ ์ํ์ ๋ํ ์์ค ํจ์์ ํ๊ท ๋๋ ํฉ. ๋ถ์์ ์์ค ํจ์์ ๊ทผ์ฌ๊ฐ์ผ๋ก ์ฌ์ฉ๋ฉ๋๋ค.
- Gradient Descent: ํจ์์ ๊ทน์๊ฐ์ ์ฐพ๊ธฐ ์ํด ํ์ฌ ์์น์์ ํจ์์ ์์ ๊ธฐ์ธ๊ธฐ ๋ฐฉํฅ์ผ๋ก ์ผ์ ๊ฑฐ๋ฆฌ๋งํผ ์ด๋ํ๋ ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ.
- Learning Rate (Step Size): ๊ทธ๋๋์ธํธ ๋์ผํธ์์ ๊ฐ ๋จ๊ณ์์ ์ด๋ํ๋ ๊ฑฐ๋ฆฌ.
- Stochastic Gradient Descent (SGD): ์ ์ฒด ํ์ต ๋ฐ์ดํฐ ๋์ ๋ฌด์์๋ก ์ ํ๋ ์์ ๋ฐฐ์น(batch)์ ๋ฐ์ดํฐ์ ๋ํ ๊ทธ๋๋์ธํธ๋ฅผ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ ํ๋ผ๋ฏธํฐ๋ฅผ ์
๋ฐ์ดํธํ๋ ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ.
- Batch Size: SGD์์ ๊ฐ ์
๋ฐ์ดํธ ๋จ๊ณ์ ์ฌ์ฉ๋๋ ๋ฐ์ดํฐ ์ํ์ ๊ฐ์.
- Local Minimum: ํจ์์ ๊ทธ๋๋์ธํธ๊ฐ 0์ด๊ณ ํค์ธ ํ๋ ฌ์ด ์์ ์ ๋ถํธ ํ๋ ฌ์ธ ์ง์ .
- Overfitting: ๋ชจ๋ธ์ด ํ์ต ๋ฐ์ดํฐ์๋ ๋งค์ฐ ์ ๋ง์ง๋ง ์๋ก์ด ํ
์คํธ ๋ฐ์ดํฐ์ ๋ํด์๋ ์ฑ๋ฅ์ด ๋จ์ด์ง๋ ํ์.
- Underfitting: ๋ชจ๋ธ์ด ํ์ต ๋ฐ์ดํฐ์ ํจํด์ ์ ๋๋ก ํ์ตํ์ง ๋ชปํด ํ์ต ๋ฐ์ดํฐ์ ํ
์คํธ ๋ฐ์ดํฐ ๋ชจ๋์์ ์ฑ๋ฅ์ด ๋ฎ์ ํ์.
- Regularization: ๊ณผ์ ํฉ์ ๋ฐฉ์งํ๊ณ ๋ชจ๋ธ์ ์ผ๋ฐํ ์ฑ๋ฅ์ ํฅ์์ํค๊ธฐ ์ํด ํ์ต ์๊ณ ๋ฆฌ์ฆ์ ์ถ๊ฐํ๋ ๊ธฐ๋ฒ.
- No Free Lunch Theorem: ๋ชจ๋ ์ข
๋ฅ์ ๋ฌธ์ ์ ๋ํด ์ต์ ์ผ๋ก ์๋ํ๋ ๋จ์ผ ๊ธฐ๊ณ ํ์ต ์๊ณ ๋ฆฌ์ฆ์ ์๋ค๋ ์ ๋ฆฌ.
- Cross-Validation: ๋ฐ์ดํฐ๋ฅผ ์ฌ๋ฌ ๊ฐ์ ํด๋(fold)๋ก ๋๋์ด ์ผ๋ถ๋ ํ์ต์ ์ฌ์ฉํ๊ณ ๋๋จธ์ง๋ ํ๊ฐ์ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ ์ฑ๋ฅ์ ์ธก์ ํ๊ณ ์ผ๋ฐํ ์ฑ๋ฅ์ ์ถ์ ํ๋ ๊ธฐ๋ฒ.
- Classification: ์
๋ ฅ ๋ฐ์ดํฐ๋ฅผ ๋ฏธ๋ฆฌ ์ ์๋ ์ฌ๋ฌ ๋ฒ์ฃผ(ํด๋์ค) ์ค ํ๋๋ก ๋ถ๋ฅํ๋ ๋ฌธ์ .
- Regression: ์
๋ ฅ ๋ฐ์ดํฐ์ ๊ธฐ๋ฐํ์ฌ ์ฐ์์ ์ธ ์ถ๋ ฅ ๊ฐ(์ค์ ๊ฐ)์ ์์ธกํ๋ ๋ฌธ์ .
- Density Estimation: ์ฃผ์ด์ง ๋ฐ์ดํฐ์ ํ๋ฅ ๋ถํฌ๋ฅผ ๋ชจ๋ธ๋งํ๊ฑฐ๋ ์ถ์ ํ๋ ๋ฌธ์ .
- Object Detection: ์ด๋ฏธ์ง ๋๋ ๋น๋์ค์์ ๊ฐ์ฒด์ ์์น๋ฅผ ์ฐพ๊ณ ํด๋น ๊ฐ์ฒด๊ฐ ์ด๋ค ํด๋์ค์ ์ํ๋์ง ์๋ณํ๋ ๋ฌธ์ (๋ถ๋ฅ์ ํ๊ท์ ์กฐํฉ).
- Self-Supervised Learning: ์ ๋ต ๋ผ๋ฒจ ์์ด ์
๋ ฅ ๋ฐ์ดํฐ ์์ฒด์์ ํ์ต ์ ํธ๋ฅผ ์์ฑํ์ฌ ๋ชจ๋ธ์ ํ์ตํ๋ ๋ฐฉ์.