VSCode တွင် Python Code Formatting စမ်းသပ်ခြင်း

Python Code Formatter tool တွေအကြောင်း (Black , Ruff, etc) ဖတ်ဖူးတာ ကြာပီဆိုပေမယ့် vscode မှာ setup မလုပ်ဖြစ်ဘူး။ ဒီမနက် အစောကြီး နိုးနေတာနဲ့ computer ရှေ့ ထိုင်ရင်း လျှောက်စမ်းရင်း တော်တော်ကြာသွားတယ်။ အကြောင်းရင်းက vscode မှာ သွင်းထားမိတဲ့ pylance က အနီရဲရဲ error message တွေကို ကြာလာတော့ မြင်ရတာအဆင်မပြေတာကြောင့် ရယ် ၊ နောက်ပီး ကျောင်း project မှာ Guide ဆရာ က အဲဒီ equal sign = ရှေ့ space ဖြုတ်ဖို့ ခနခန ပြောလွန်းတာရယ်ကြောင့် အဲဒါကိုလဲ code formatting ထဲမှာ ရှိမှာပဲ ဆိုတာကနေ စလုပ်မိတာ။ (Assignment မပြခင် Code Formatting လုပ်လိုက်လေ လို့ စ အကြံဥာဏ်ပေးလိုက်တဲ့ Putuuu lay ကိုလဲ ဒီနေရာက credit ပေးပါတယ် 😀 ) Installation pip install နဲ့ပဲ လွယ်လွယ်ကူကူသွင်းလို့ ရတယ်။ ဒါပေမယ့် အမှန်က မလိုလောက်ဘူး ။ VScode extension ကနေ Black formatter (or) Ruff ရှာသွင်းရင် အဲဒီ description မှာ extension နဲ့ အတူ သွင်းပေးထားတဲ့ version တစ်ခု ပါတယ်လို့ ဆိုထားတယ်။ ဒါပေမယ့် ကျွန်တော်က command line (vscode မဟုတ်တဲ့ အခြားအပြင်ဘက်နေရာတွေမှာပါ) လျှောက်စမ်းချင်တာနဲ့ pip install black (or) pip install ruff နဲ့ သွင်းလိုက်တယ်။ Black Formatter ဒီကောင်က နာမည်ကြီးတာရော ၊ နောက်ပြီး vscode ထဲမှာ miscrosoft ရဲ့ official extenstion အနေနဲ့ ရှိနေတာရောကြောင့် အရင် စမ်းဖြစ်လိုက်တာ။ vscode ရဲ့ setting.json ထဲမှာ နဲနဲသွားပြင်ရုံပါပဲ။ (vscode setting.json ထဲသွားရန် >> Command Palette >

ဒေတာ စုဆောင်းခြင်း လုပ်ငန်း

စာမေးပွဲနား နီးလို့ ထင်တယ်။ စာက မဟုတ်ရင် ကျန်တာအားလုံး လုပ်ချင်နေတယ်။ လောလောဆယ် လုပ်ချင်နေတာကလဲ Coding ပိုင်းပဲမို့ စာနဲ့တော့ ဆိုင်မှာပါလေ လို့တော့ တွေးထားတာပဲ။ >.< Social Network ဇာတ်ကားအကြောင်း ခေါင်းထဲရောက်နေတော့ အဲဒီထဲအတိုင်း လိုက်လုပ်ကြည့်မလို့။ ဒေတာ scrape တဲ့ process ကို ချရေးမလို့လေ။ ဇူလိုင် ၁၅ – မနက် ၁၂ (သို့) ၁ နာရီ ဒီ ဒေတာ စုဖို့ idea က ရတာ ကြာပြီ။ ဒါပေမယ့် ဒီနေ့ည စိတ်ရူးပေါက်မှ ထလုပ်မယ် ဖြစ်သွားတာ။ ဒေတာတွေ ဘယ်က ရနိုင်မလဲ စရှာကြည့်တယ်။ စိတ်ကူးချိုချိုကတော့ စာမျက်နှာ ရာဂဏန်းပါတဲ့ စာအုပ်စာရင်း တင်ပေးထားတာ တွေ့တယ်။ ဒါပေမယ့် scrape လုပ်ဖို့ အရမ်း မလွယ်လောက်ဘူး။ အဲဒါနဲ့ website တွေကို လျှောက်ကြည့်ရင် WE ရဲ့ chatbot ကနေ ဒေတာယူဖို့ စစဥ်းစားမိတာ။ အစက chatbot ပုံစံကနေ ဒေတာယူမှာဆိုတော့ မဖြစ်နိုင်လောက်ဘူး(အရမ်းခက်လောက်တယ်) ထင်နေတာ။ ဒါပေမယ့် API access ယူလို့ ရတာ ရှာတွေ့တယ်။ Response က HTML format တော့ ဖြစ်နေတယ် ။ JSON မဟုတ်တော့ အလုပ်တော့ ရှုပ်မှာပေါ့လေ။ ဒါပေမယ့် Requests-HTML library လောက်နဲ့ဆို အဆင်ပြေပြီ ထင်တယ်။ လုပ်ကြည့်မှ သိမှာပဲ။ အခု မနက် ၂ နာရီ ထိုးနေပြီ။ ဘယ်လောက်ထိ ပြီးနိုင်မလဲ။ 2:16 AM environment setup ပြီးပြီ။ author ကနေ စပြီး scrape ရမယ်။ 3 AM နာမည် နဲ့ id ရဖို့ကို တော်တော် လုပ်လိုက်ရတယ်။ bs4 သုံးရတယ်။ မသုံးတာကြာပီဆိုတော့ ဘာတွေမှန်း မသိတော့ဘူး ။ အယ်လယ့် ။ မဟုတ်ရင်တော့ သိပါတယ်ပေါ့။ Official documentation is the best!!!!!