1. Transformasi Linear: “Fungsi untuk Vektor”
Jika dalam aljabar biasa kita mengenal fungsi $f(x) = y$, dalam aljabar linear kita mengenal Transformasi Linear $T(\vec{v}) = \vec{w}$.
A. Syarat Menjadi “Linear”
Tidak semua perubahan posisi vektor disebut linear. Sebuah transformasi $T$ disebut linear hanya jika ia menjaga dua sifat:
- Additivity: $T(\vec{u} + \vec{v}) = T(\vec{u}) + T(\vec{v})$
- Homogeneity: $T(c\vec{v}) = cT(\vec{v})$
Secara Visual: Bayangkan sebuah grid (kisi-kisi) pada bidang 2D. Transformasi linear akan menjaga garis-garis kisi tetap lurus dan sejajar, serta titik pusat $(0,0)$ tetap di tempatnya. Jika grid menjadi melengkung, itu bukan transformasi linear.
B. Matriks Standar
Setiap transformasi linear dari $\mathbb{R}^n$ ke $\mathbb{R}^m$ dapat diwakili oleh sebuah matriks. Jika kita ingin tahu apa yang dilakukan sebuah transformasi, kita cukup melihat apa yang dilakukannya terhadap vektor basis standar ($\hat{i}$ dan $\hat{j}$).
- Rotasi $\theta$: $\begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}$
- Scaling (Penskalaan): $\begin{pmatrix} k & 0 \\ 0 & k \end{pmatrix}$
- Shearing (Geseran): $\begin{pmatrix} 1 & k \\ 0 & 1 \end{pmatrix}$
2. Eigenvalues dan Eigenvectors: “Inti Perubahan”
Ketika sebuah matriks $A$ mentransformasi ruang, hampir semua vektor akan berputar dan berubah panjangnya. Namun, ada vektor-vektor khusus yang tidak berputar. Mereka tetap di garis yang sama, hanya panjangnya saja yang berubah.
A. Definisi
- Eigenvector ($\vec{v}$): Vektor yang arahnya tetap sama (atau tepat berlawanan) setelah transformasi.
- Eigenvalue ($\lambda$): Skalar yang menunjukkan seberapa banyak eigenvector tersebut “diregangkan” atau “diciutkan”.
$$A\vec{v} = \lambda\vec{v}$$
B. Cara Mencari Eigenvalues (Persamaan Karakteristik)
Untuk menemukan $\lambda$, kita harus memanipulasi persamaan di atas:
- $A\vec{v} – \lambda\vec{v} = \vec{0}$
- $(A – \lambda I)\vec{v} = \vec{0}$
- Agar $\vec{v}$ bukan vektor nol, maka matriks $(A – \lambda I)$ harus tidak memiliki invers, yang artinya determinannya harus nol:$$\det(A – \lambda I) = 0$$
Contoh Singkat:
Jika $A = \begin{pmatrix} 1 & 2 \\ 2 & 1 \end{pmatrix}$, maka:
$\det \begin{pmatrix} 1-\lambda & 2 \\ 2 & 1-\lambda \end{pmatrix} = 0$
$(1-\lambda)(1-\lambda) – (2)(2) = 0$
$\lambda^2 – 2\lambda – 3 = 0$
$(\lambda – 3)(\lambda + 1) = 0$
Maka Eigenvalues-nya adalah $\lambda = 3$ dan $\lambda = -1$.
3. Aplikasi Tingkat Lanjut
Mengapa kita bersusah payah mencari nilai-nilai ini?
A. Diagonalisasi ($A = PDP^{-1}$)
Jika kita memiliki matriks besar dan ingin menghitung $A^{100}$, itu akan sangat sulit. Namun, dengan Eigenvalues, kita bisa mengubah $A$ menjadi matriks diagonal $D$. Menghitung $D^{100}$ sangatlah mudah (tinggal memangkatkan angka-angka di diagonalnya). Ini digunakan dalam simulasi cuaca dan dinamika populasi.
B. Analisis Komponen Utama (PCA)
Dalam Big Data, kita sering memiliki ratusan variabel. PCA menggunakan Eigenvalues untuk menentukan variabel mana yang paling “berpengaruh” dan membuang variabel yang tidak penting tanpa merusak informasi utama.
C. Teori String dan Getaran
Insinyur mencari Eigenvalues dari sebuah struktur (seperti jembatan) untuk mengetahui “frekuensi alami”-nya. Jika frekuensi angin sama dengan Eigenvalue getaran jembatan, jembatan tersebut bisa runtuh (resonansi).
