AI के साथ Linux: एक 4-भाग की श्रृंखला
भाग 1: अपना डिस्ट्रो चुनें → भाग 2: स्टोरेज और एन्क्रिप्शन → भाग 3: मैनुअल इंस्टॉल → भाग 4: सर्विसेज और GPU
मैंने Linux इतनी बार इंस्टॉल किया है कि गिनती भूल गया। हर बार डिस्ट्रो का चुनाव या तो अंदाज़े से होता था या जो पिछली बार इस्तेमाल किया था उसी से। बात यह है: अगर आप कुछ खास बना रहे हैं, तो अंदाज़ा काम नहीं आएगा। एक सिक्योरिटी ब्रेन नोड जिसे Docker, PostgreSQL, लोकल AI मॉडल्स, और तीन एन्क्रिप्टेड डिस्क पर पैकेट कैप्चर चाहिए? यह एक आर्किटेक्चर की समस्या है, न कि अनुभव की।
यह अध्याय आपको दिखाता है कि बातचीत को कैसे तैयार करें ताकि AI आपको असली आर्किटेक्चर दे, न कि Wikipedia का सारांश। आप उसे अपना असली वर्कलोड देंगे, बदले में संरचित तर्क पाएंगे, अपने हार्डवेयर को स्टोरेज प्लान से जोड़ेंगे, और फर्मवेयर की समस्याएं पकड़ेंगे इससे पहले कि वे आपके घंटे बर्बाद करें। अंत तक, आपके पास एक दोहराने योग्य तरीका होगा जो किसी भी बिल्ड, किसी भी हार्डवेयर, किसी भी डिस्ट्रो के लिए काम करता है।
पहला प्रॉम्प्ट सबसे ज़्यादा मायने रखता है
ज़्यादातर लोग ChatGPT में Linux के बारे में सोचते समय यह टाइप करते हैं:
"मुझे कौन सा Linux डिस्ट्रो इंस्टॉल करना चाहिए?"
और बदले में वही मिलता है जिसकी उम्मीद थी: सतही विवरण के साथ डिस्ट्रिब्यूशन की एक लंबी सूची। Ubuntu शुरुआती लोगों के लिए आसान है। Fedora में नए पैकेज हैं। Arch उन लोगों के लिए है जो तकलीफ पसंद करते हैं। शुक्रिया, बेहद बेकार जानकारी।
समस्या AI नहीं है। समस्या प्रॉम्प्ट है। आप एक सामान्य सवाल पूछ रहे हैं और सामान्य जवाब पा रहे हैं। जिस पल आप "क्या इंस्टॉल करूं" से "यह मशीन यह काम करने के लिए है" पर आते हैं, बातचीत पूरी तरह बदल जाती है���
यहां वह प्रॉम्प्ट पैटर्न है जो वास्तव में काम करता है:
1I'm setting up a Linux machine for [specific role].
2My requirements are: [list workloads].
3The machine needs to support: [list services].
4What distribution should I consider and why?सरल संरचना। आउटपुट की गुणवत्ता में ज़बरदस्त फर्क। आप AI को तर्क करने के लिए पर्याप्त संदर्भ दे रहे हैं, न कि केवल दोहराने के लिए।
आपके बिल्ड को वास्तव में क्या चाहिए
वह प्रॉम्प्ट भेजने से पहले, भूमिका के बारे में स्पष्ट हो जाएं। "एक Linux सर्वर" मत कहें। बताएं कि वह क्या करता है। एक सिक्योरिटी ब्रेन नोड के लिए (जिस बिल्ड से यह श्रृंखला गुज़रती है), वर्कलोड सूची इस तरह दिखती है:
- Docker कंटेनर जो कई सिक्योरिटी टूल्स और सर्विसेज चलाते हैं
- PostgreSQL और Redis संरचित डेटा और कैशिंग के लिए
- Ollama लोकल AI मॉडल चलाने के लिए (कोई क्लाउड निर्भरता नहीं)
- भविष्य में NVIDIA GPU पासथ्रू त्वरित इनफेरेंस के लिए
- अटैक आर्टिफैक्ट स्टोरेज उचित चेन-ऑफ-कस्टडी अलगाव के साथ
- एन्क्रिप्टेड मल्टी-डिस्क स्टोरेज NVMe, SSD, और HDD पर
- दीर्घकालिक स्थिरता बिना ब्लीडिंग-एज अपडेट से लगातार टूटने के
यह अब "कौन सा डिस्ट्रो" का सवाल नहीं रहा। यह एक आर्किटेक्चर का सवाल है। और जब आप इसे इस तरह फ्रेम करते हैं, तो AI पैकेज इकोसिस्टम, कर्नेल सपोर्ट टाइमलाइन, ड्राइवर उपलब्धता, और कम्युनिटी टूलिंग के बारे में सोचने लगता है। आपका काम है बाधाएं प्रदान करना। AI का काम है उनके माध्यम से तर्क करना।
तर्क कैसे टूटता है
AI को इस तरह का वर्कलोड सूची दें और आपको केवल जवाब नहीं मिलेगा। आपको हर विकल्प के पीछे का तर्क मिलेगा। यहां क्या उम्मीद करें:
Kali Linux को सबसे मज़बूत सिफारिश मिलती है। यह Debian-आधारित है, जिसका मतलब है ठोस पैकेज मैनेजमेंट और व्यापक संगतता। सिक्योरिटी टूलिंग पहले से इंस्टॉल आती है या एक apt install की दूरी पर है। रोलिंग रिलीज़ टूल्स को Arch जैसी अस्थिरता के बिना अद्यतन रखती है। और कम्युनिटी विशेष रूप से उस तरह के काम पर केंद्रित है जो यह मशीन करती है।
Ubuntu Server दूसरे स्थान पर आता है। उत्कृष्ट Docker सपोर्ट, बड़ी कम्युनिटी, LTS रिलीज़। लेकिन सिक्योरिटी-केंद्रित बिल्ड के लिए, आप पहले दो दिन उन टूल्स को इंस्टॉल करने में बिताएंगे जो Kali डिफ़ॉल्ट रूप से शिप करता है। यह एक सामान्य-उद्देश्य नींव है जब आपको उद्देश्य-निर्मित की ज़रूरत है।
Debian Stable बहुत रूढ़िवादी है। पैकेज संस्करण Ollama और नए NVIDIA ड्राइवर की ज़रूरतों से पीछे हैं। आप लगातार बैकपोर्ट्स से लड़ते रहेंगे।
Arch Linux में सबसे ताज़े पैकेज हैं, लेकिन प्रोडक्शन डेटाबेस और Docker सर्विसेज चलाने वाली मशीन पर रोलिंग रिलीज़ की अस्थिरता मुसीबत को न्योता देना है। एक बुरा pacman -Syu और आपका PostgreSQL इंस्टेंस बंद हो जाता है।
Fedora Server दिलचस्प है लेकिन RPM-आधारित टूलिंग लाता है जो उस व्यापक Kali/Debian इकोसिस्टम से मेल नहीं खाती जिसे ज़्यादातर सिक्योरिटी टूल्स लक्षित करते हैं।
मुख्य अंतर्दृष्टि
आपको केवल एक डिस्ट्रो का नाम नहीं मिलेगा। आपको हर विकल्प के लिए तर्क मिलेगा, जहां प्रत्येक डिस्ट्रिब्यूशन आपके विशिष्ट वर्कलोड के साथ संघर्ष करेगी, और खुद एक सूचित निर्णय लेने के लिए पर्याप्त संदर्भ मिलेगा। यही "कौन सा डिस्ट्रो" पूछने और जो आप बना रहे हैं उसका वर्णन करने के बीच का अंतर है।
इस बिल्ड के लिए, चुनाव Kali है। इसलिए नहीं कि यह ट्रेंडी है या किसी YouTube वीडियो ने कहा, बल्कि इसलिए कि वर्कलोड प्रोफाइल सीधे उस काम से मेल खाती है जिसके लिए Kali डिज़ाइन किया गया है, और Debian नींव वह स्थिरता प्रदान करती है जो Docker और PostgreSQL को चाहिए। आपका बिल्ड कहीं और इशारा कर सकता है। यही पूरा मकसद है अनुमान लगाने की बजाय AI को इसके माध्यम से तर्क करने देने का।
हार्डवेयर डिस्कवरी की बातचीत
डिस्ट्रिब्यूशन तय होने के बाद, अभी ISO के लिए मत जाएं। पहले, जानें कि आप किस हार्डवेयर के साथ काम कर रहे हैं। यहीं AI की बातचीत वास्तव में शक्तिशाली हो जाती है।
यह प्रॉम्प्ट आज़माएं:
1You are a security expert and are setting up a clean Kali Linux
2install. I'm sitting in front of the terminal. What commands do
3you want me to run to get you all the specs and hard drives
4available to plan this?इसे फिर से पढ़ें। आप "मैं अपना CPU कैसे चेक करूं" नहीं पूछ रहे। आप AI को बता रहे हैं कि पूरी डिस्कवरी सीक्वेंस डिज़ाइन करे इस आधार पर कि उसे प्लानिंग के लिए क्या जानना है। य��� एक मौलिक रूप से अलग इंटरैक्शन है। आप जांच के लिए AI को ड्राइवर की सीट पर बैठा रहे हैं जबकि आप कमांड चलाते हैं और रिपोर्ट करते हैं।
AI क्या मांगता है (और हर श्रेणी क्यों मायने रखती है)
आपको कमांड की एक संरचित सूची वापस मिलेगी, श्रेणी के अनुसार समूहीकृत। यादृच्छिक कमांड नहीं। एक जानबूझकर डिस्कवरी प्रोटोकॉल। यहां क्या उम्मीद करें:
फर्मवेयर मोड (ls /sys/firmware/efi या BIOS सेटिंग्स जांचना): यह आपकी पूरी बूट रणनीति निर्धारित करता है। UEFI का मतलब है GPT पार्टिशन टेबल और ESP पार्टिशन। Legacy BIOS का मतलब है MBR और अलग बूटलोडर कॉन्फ़िगरेशन। इसे गलत करें और आप फिर से इंस्टॉल कर रहे हैं।
CPU और RAM (lscpu, free -h): कोर काउंट और मेमोरी साइज़ निर्धारित करते हैं कि आप एक साथ कितने Docker कंटेनर चला सकते हैं, क्या लोकल AI मॉडल मेमोरी में फिट होंगे, और आपका PostgreSQL कॉन्फ़िगरेशन कितना आक्रामक हो सकता है।
डिस्क इन्वेंटरी (lsblk -o NAME,SIZE,TYPE,ROTA,TRAN,MODEL, fdisk -l): हर डिस्क का साइज़, इंटरफेस टाइप (NVMe, SATA), और रोटेशनल स्टेटस। यह स्टोरेज आर्किटेक्चर की नींव है।
कंट्रोलर मोड (BIOS सेटिंग्स, dmesg | grep -i ahci): AHCI बनाम RAID बनाम IDE मोड डिस्क परफॉर्मेंस और Linux संगतता को प्रभावित करता है। RAID मोड में कुछ कंट्रोलर इंस्टॉलर से अलग-अलग डिस्क छुपा देते हैं।
GPU हार्डवेयर (lspci | grep -i vga, lspci -nn | grep -i nvidia): दो कारणों से महत्वपूर्ण। पहला, NVIDIA GPU अगर ठीक से न संभाला जाए तो इंस्टॉलर क्रैश कर सकते हैं। दूसरा, सटीक GPU मॉडल जानने से पता चलता है कि बाद में आपको कौन सा ड्राइवर संस्करण चाहिए।
नेटवर्क डिवाइस (ip link, lspci | grep -i net): इंस्टॉलेशन के दौरान पैकेज डाउनलोड के लिए आपको नेटवर्क एक्सेस चाहिए। यह जानना कि आपके पास Intel, Realtek, या Broadcom नेटवर्किंग है, यह निर्धारित करता है कि आपको फर्मवेयर पैकेज की ज़रूरत होगी या नहीं।
मौजूदा पार्टिशन टेबल (fdisk -l, blkid): किसी भी मौजूदा डेटा या पार्टिशन स्कीम को कुछ भी मिटाने से पहले समझना ज़रूरी है।
SMART हेल्थ (smartctl -a /dev/sdX): डिस्क हेल्थ डेटा बताता है कि कौन सी ड्राइव दीर्घकालिक स्टोरेज के लिए भरोसेमंद हैं और कौन सी भारी वर्कलोड के तहत फेल हो सकती हैं।
वर्कफ्लो पैटर्न
यह व्यवहार में इस तरह काम करता है:
- AI आपको कमांड का एक बैच देता है
- आप उन्हें टर्मिनल में चलाते हैं
- आप आउटपुट वापस चैट में पेस्ट करते हैं
- AI परिणामों की व्याख्या करता है और फॉलो-अप सवाल पूछता है
- जब तक पूरी तस्वीर सामने न आ जाए, दोहराएं
आपको यह समझने की ज़रूरत नहीं कि lspci आउटपुट की हर लाइन का क्या मतलब है। AI इसे पढ़ता है, जो प्रासंगिक है उसे फ्लैग करता है, और बताता है कि यह आपके बिल्ड के लिए क्या मायने रखता है। इसे सहयोगी समस्या-समाधान के रूप में सोचें: आप हाथ हैं, AI विश्लेषक है। यह विभाजन काम करता है क्योंकि AI घने तकनीकी आउटपुट को ज़्यादातर लोगों की पढ़ने की गति से तेज़ प्रोसेस कर सकता है।
AI आपके हार्डवेयर की व्याख्या करता है
एक बार जब आप डिस्कवरी कमांड चला लेते हैं, तो आपको इस तरह की इन्वेंटरी मिलती है (यह इस सीरीज़ के बिल्ड का असली हार्डवेयर है):
- NVMe SSD, 1TB: Samsung 970 EVO Plus, ~3,500 MB/s सीक्वेंशियल रीड
- SATA HDD, 1TB: Western Digital Blue, 5400 RPM, मैकेनिकल
- SATA SSD, 128GB: पुराना Kingston, ठीक-ठाक लेकिन छोटा, SMART में बढ़े हुए तापमान की घटनाएं दर्ज
- GPU: Intel इंटीग्रेटेड + NVIDIA GeForce (हाइब्रिड/Optimus कॉन्फ़िगरेशन)
- RAM: 32GB DDR4
- CPU: Intel i7, 8 कोर / 16 थ्रेड
कच्चे स्पेसिफिकेशन महज़ संख्याएं हैं। असल बात यह है कि AI उन्हें आपके वर्कलोड से कैसे जोड़ता है। अपना हार्डवेयर आउटपुट चैट में पेस्ट करें और देखें कि AI किस तरह एक स्टोरेज आर्किटेक्चर तैयार करता है, जो हर डिस्क की विशेषताओं को आपकी पहले बताई गई ज़रूरतों से मिलाकर बनाया जाता है।
तीन-स्तरीय स्टोरेज आर्किटेक्चर
मल्टी-डिस्क बिल्ड के लिए, AI एक टियर्ड सिस्टम का प्रस्ताव देगा जहाँ हर डिस्क उन वर्कलोड को संभालती है जिनके लिए वह सबसे उपयुक्त है:
टियर 1: NVMe (मुख्य कार्यकर्ता) हर उस चीज़ के लिए जिसे गति चाहिए। ऑपरेटिंग सिस्टम, Docker कंटेनर स्टोरेज, PostgreSQL डेटाबेस, Redis डेटा, और Ollama AI मॉडल। इन वर्कलोड में भारी रैंडम I/O होता है, और NVMe इसे बिना किसी परेशानी के संभाल लेता है। इस डिस्क पर लचीले पार्टीशन प्रबंधन के लिए LVM के साथ LUKS एन्क्रिप्शन लगाया जाता है।
टियर 2: SATA SSD (सक्रिय कार्यक्षेत्र) सक्रिय विश्लेषण के लिए। जब आप किसी केस पर काम कर रहे होते हैं, तो आपको निकाले गए सैंपल, अस्थायी टूलिंग आउटपुट, और प्रगति में चल रहे डेटा तक तेज़ पहुँच चाहिए। 128GB SSD, SSD-स्पीड एक्सेस देता है और प्राथमिक NVMe को अस्थायी फ़ाइलों से बचाए रखता है। यह भी LUKS-एन्क्रिप्टेड है और एक समर्पित वर्कस्पेस के रूप में माउंट किया जाता है।
टियर 3: SATA HDD (कोल्ड आर्काइव) दीर्घकालिक संग्रह के लिए। पैकेट कैप्चर, फोरेंसिक एक्सपोर्ट, साक्ष्य संग्रह, और वह सब कुछ जो रखना ज़रूरी है लेकिन जिसे तेज़ एक्सेस की ज़रूरत नहीं। मैकेनिकल ड्राइव यहाँ एकदम सही है: बड़ी, किफ़ायती, और सीक्वेंशियल राइट के लिए भरोसेमंद। अलग की से LUKS-एन्क्रिप्टेड।
"अपने डेटाबेस स्पिनिंग रस्ट पर मत रखिए, और साल में दो बार खोली जाने वाली फ़ाइलों पर NVMe बैंडविड्थ बर्बाद मत कीजिए। स्टोरेज टियर को एक्सेस पैटर्न से मिलाइए।"
छोटा SSD रूट डिस्क के रूप में क्यों अस्वीकार होता है
यहाँ एक जाल है जिसमें आप फँस सकते हैं: NVMe को डेटा के लिए "मुक्त" रखने के लिए छोटे SSD को रूट डिस्क के रूप में इस्तेमाल करना। सुनने में तर्कसंगत लगता है। AI इस पर कड़ा विरोध करेगा, और यहाँ कारण है।
अकेले Docker इमेज और कंटेनर वॉल्यूम एक सिक्योरिटी वर्कस्टेशन पर 40-60GB खा सकते हैं। PostgreSQL डेटा डायरेक्टरी, Ollama मॉडल फ़ाइलें (जो 4-8GB प्रत्येक हो सकती हैं), और सिस्टम पैकेज जोड़ें, तो एक आरामदायक रूट पार्टीशन के लिए कम से कम 80-100GB चाहिए। 128GB डिस्क पर, बढ़ने के लिए लगभग कोई जगह नहीं बचती। एक बड़ा Docker पुल और आप 95% क्षमता पर पहुँच जाते हैं।
SMART डेटा एक और चिंता जोड़ता है। अगर SSD ने थर्मल थ्रॉटलिंग इवेंट लॉग किए हैं, तो वह फेल नहीं हो रहा, लेकिन वह वह डिस्क भी नहीं है जिसे आप सिस्टम रूट के रूप में चाहेंगे।
NVMe स्पष्ट रूप से प्राथमिक विकल्प है। तेज़, बड़ा, स्वस्थ, और ठीक उसी तरह के मिश्रित रैंडम/सीक्वेंशियल वर्कलोड के लिए बना है जो Docker और डेटाबेस वाला रूट पार्टीशन उत्पन्न करता है। इसे ज़्यादा जटिल मत बनाइए।
फर्मवेयर जाँच जो घंटों बचाती है
यहीं पर डिस्कवरी प्रक्रिया अपना मूल्य साबित करती है, इससे पहले कि एक भी बाइट डिस्क पर जाए।
शुरुआती डिस्कवरी कमांड में से एक यह उजागर कर सकती है कि आपकी मशीन Legacy BIOS मोड में चल रही है। मशीन लीगेसी मोड में ठीक काम करती है। लेकिन एन्क्रिप्टेड मल्टी-डिस्क बिल्ड के लिए, यह गलत है। यह ठीक वही चीज़ है जिसे AI पकड़ता है और जिसे आप जाँचने के बारे में सोच भी नहीं सकते। यहाँ बताया गया है कि यह क्यों मायने रखता है:
Legacy BIOS + MBR आपको प्रति डिस्क चार प्राथमिक पार्टीशन तक सीमित करता है। LVM के साथ तीन-डिस्क एन्क्रिप्टेड बिल्ड के लिए, यह एक वास्तविक बाधा है। आप एक्सटेंडेड पार्टीशन और लॉजिकल वॉल्यूम का इस तरह उपयोग करते हैं जो अनावश्यक जटिलता जोड़ता है।
UEFI + GPT पार्टीशन काउंट की सीमा हटाता है, बड़े डिस्क साइज़ को नेटिव रूप से सपोर्ट करता है, और एक साफ़ बूट प्रक्रिया प्रदान करता है। एन्क्रिप्टेड मल्टी-वॉल्यूम बिल्ड के लिए, GPT सही आधार है।
अगर AI इसे फ्लैग करे तो आपका अगला कदम: इंस्टॉलेशन से पहले तीन फर्मवेयर बदलाव।
- BIOS सेटिंग में UEFI मोड पर स्विच करें
- Secure Boot अक्षम करें (Kali का इंस्टॉलर Secure Boot संभाल सकता है, लेकिन यह शुरुआती सेटअप और ड्राइवर इंस्टॉलेशन के दौरान, खासकर NVIDIA के साथ, अतिरिक्त परेशानी जोड़ता है)
- SATA कंट्रो��र के लिए AHCI मोड सत्यापित करें (शायद पहले से सेट हो, लेकिन पुष्टि करें)
यह उस तरह की समस्या है जिसे आप तब तक नहीं जानते जब तक वह आपको परेशान न करे। डिस्कवरी के दौरान इसे पकड़ना, इससे पहले कि USB ड्राइव भी फ्लैश हो, वास्तविक समय और निराशा बचाता है। फर्मवेयर स्विच BIOS सेटिंग में पाँच मिनट लेता है। इंस्टॉलेशन के बीच में समस्या का पता चलना मतलब शुरू से दोबारा शुरू करना।
आपकी दोहराने योग्य विधि
यह पूरी प्रक्रिया इसी पर आती है: एक ऐसी कार्यप्रणाली जिसे आप किसी भी बिल्ड, किसी भी हार्डवेयर, किसी भी डिस्ट्रीब्यूशन के लिए उपयोग कर सकते हैं। इसे पिन करें।
चरण 1: अपने लक्ष्यों को विशिष्टता के साथ बताएं। "मुझे Linux चाहिए" नहीं, बल्कि "मुझे एक ऐसा सिस्टम चाहिए जो ये सेवाएं चलाए, ये वर्कलोड संभाले, और इस प्रकार का डेटा स्टोर करे।" आप जितने विशिष्ट होंगे, AI उतना बेहतर तर्क कर सकेगा।
चरण 2: AI को डिस्कवरी डिज़ाइन करने दें। अलग-अलग कमांड Google मत करें। AI को बताएं कि वह कौन सी भूमिका निभा रहा है और उसे जाँच-पड़ताल डिज़ाइन करने के लिए कहें। वह ऐसी चीज़ें माँगेगा जो आपने जाँचने के बारे में सोचा भी नहीं होगा।
चरण 3: चलाएं और वापस रिपोर्ट करें। कमांड चलाएं, आउटपुट पेस्ट करें। आप हाथ हैं; AI विश्लेषक है। काम का यह विभाजन काम करता है क्योंकि AI घने तकनीकी आउटपुट को अधिकांश मनुष्यों से तेज़ी से प्रोसेस कर सकता है।
चरण 4: AI को आपके लक्ष्यों के सापेक्ष व्याख्या करने दें। संदर्भ के बिना कच्चे स्पेसिफिकेशन अर्थहीन हैं। 128GB SSD मीडिया सर्वर रूट पार्टीशन के लिए ठीक है। यह Docker-भारी सिक्योरिटी वर्कस्टेशन के लिए खतरनाक रूप से छोटा है। AI हार्डवेयर को वर्कलोड आवश्यकताओं से मैप करता है और उन बेमेलों को फ्लैग करता है जिन्हें आप चूक जाते।
चरण 5: तब तक दोहराएं जब तक तस्वीर पूरी न हो जाए। डिस्कवरी शायद ही कभी एक राउंड में होती है। AI फॉलो-अप प्रश्न पूछेगा। "उस पुराने SSD के लिए smartctl क्या दिखाता है?" या "क्या NVIDIA GPU प्राथमिक डिस्प्ले एडाप्टर है?" हर राउंड योजना को परिष्कृत करता है।
"आपको Linux कमांड याद करने की ज़रूरत नहीं। आपको पता होना चाहिए कि आप क्या बना रहे हैं। AI लक्ष्यों और कार्यान्वयन के बीच अनुवाद संभालता है।"
यह कार्यप्रणाली चाहे आप होम मीडिया सर्वर, डेवलपमेंट वर्कस्टेशन, नेटवर्क अप्लायंस, या पेनेट्रेशन टेस्टिंग रिग सेट कर रहे हों, काम करती है। कमांड बदलते हैं। पैटर्न वही रहता है।
अब आपके पास एक डिस्ट्रो तय है, पूरी हार्डवेयर इन्वेंटरी है, एक टियर्ड स्टोरेज योजना है, और साफ़ फर्मवेयर सेटिंग हैं। यहाँ से आगे सब कुछ क्रियान्वयन है। भाग 2 इन सबको एक वास्तविक पार्टीशन स्कीम में बदलता है: एन्क्रिप्टेड वॉल्यूम, LVM लेआउट, माउंट पॉइंट, और वह प्रेप स्क्रिप्ट जो इंस्टॉलर के डिस्क छूने से पहले सब कुछ सत्यापित करती है। यहीं से बिल्ड असली होता है।
अगला: भाग 2: स्टोरेज और एन्क्रिप्शन एन्क्रिप्टेड वॉल्यूम डिज़ाइन, LVM लेआउट, और वह सेफ्टी-चेक स्क्रिप्ट को कवर करता है जो इंस्टॉलेशन शुरू होने से पहले आपके हार्डवेयर को सत्यापित करती है। अपना टर्मिनल लेकर आएं।