Pdf merge and compress

pdftk : https://www.pdflabs.com/tools/pdftk-server/

gswin64 : https://ghostscript.com/releases/gsdnld.html

filenames = os.listdir()
result = ” “.join(filenames)
result

pdftk 1.pdf 2.pdf 3.pdf cat output merged.pdf

gswin64 -sDEVICE=pdfwrite -dCompatibilityLevel=1.4 –dPDFSETTINGS=/ebook -dNOPAUSE -dQUIET -dBATCH -sOutputFile=merged_compress.pdf merged.pdf

  • -dPDFSETTINGS=/screen lower quality, smaller size. (72 dpi)
  • -dPDFSETTINGS=/ebook for better quality, but slightly larger pdfs. (150 dpi)
  • -dPDFSETTINGS=/prepress output similar to Acrobat Distiller “Prepress Optimized” setting (300 dpi)
  • -dPDFSETTINGS=/printer selects output similar to the Acrobat Distiller “Print Optimized” setting (300 dpi)
  • -dPDFSETTINGS=/default selects output intended to be useful across a wide variety of uses, possibly at the expense of a larger output file

Reference:  https://ghostscript.readthedocs.io/en/latest/VectorDevices.html#controls-and-features-specific-to-postscript-and-pdf-input

pdf to png command

gswin64 -sDEVICE=pngalpha -sOutputFile=math.png -r144 math.pdf

W: Failed to fetch

เวลาที่  sudo apt-get install อะไรสักอย่างแล้วมันขึ้น
E: Unable to locate package xxx

ในเน็ตเค้าก็จะแนะนำให้ sudo apt-get update ก่อน
แต่มันก็ขึ้น W: Failed to fetch อีก

วิธีแก้ไขคือ ให้เราเคลียร์ข้างในโฟลเดอร์ /var/lib/apt/lists ซึ่งเก็บข้อมูลแพคเกจต่างๆไว้
โดยการ rename หรือ move มันไปไว้ที่อื่น sudo mv /var/lib/apt/lists ~/
**ไม่ควรลบทิ้ง เดี่ยวอะไรหายไปแล้วจะกู้คืนไม่ได้ วุ่นวายหนักกว่าเดิม

ลอง sudo apt-get update อีกรอบ น่าจะไม่มี warning/error ใดๆ
แต่ถ้ามันไม่ได้ ก็ลอง copy ไฟล์ /etc/apt/sources.list จากเครื่องที่ install package ได้มาใส่อีกเครื่องดู (จริงๆแค่เขียน repository เพิ่มเข้าไปข้างในไฟล์ก็ได้ แต่ก็ไม่รู้ว่าต้องเขียนอะไร)

#deb cdrom:[Ubuntu 20.04.3 LTS _Focal Fossa_ - Release amd64 (20210819)]/ focal main restricted

# See http://help.ubuntu.com/community/UpgradeNotes for how to upgrade to
# newer versions of the distribution.
deb http://jp.archive.ubuntu.com/ubuntu/ focal main restricted
# deb-src http://jp.archive.ubuntu.com/ubuntu/ focal main restricted

## Major bug fix updates produced after the final release of the
## distribution.
deb http://jp.archive.ubuntu.com/ubuntu/ focal-updates main restricted
# deb-src http://jp.archive.ubuntu.com/ubuntu/ focal-updates main restricted

## N.B. software from this repository is ENTIRELY UNSUPPORTED by the Ubuntu
## team. Also, please note that software in universe WILL NOT receive any
## review or updates from the Ubuntu security team.
deb http://jp.archive.ubuntu.com/ubuntu/ focal universe
# deb-src http://jp.archive.ubuntu.com/ubuntu/ focal universe
deb http://jp.archive.ubuntu.com/ubuntu/ focal-updates universe
# deb-src http://jp.archive.ubuntu.com/ubuntu/ focal-updates universe

## N.B. software from this repository is ENTIRELY UNSUPPORTED by the Ubuntu 
## team, and may not be under a free licence. Please satisfy yourself as to 
## your rights to use the software. Also, please note that software in 
## multiverse WILL NOT receive any review or updates from the Ubuntu
## security team.
deb http://jp.archive.ubuntu.com/ubuntu/ focal multiverse
# deb-src http://jp.archive.ubuntu.com/ubuntu/ focal multiverse
deb http://jp.archive.ubuntu.com/ubuntu/ focal-updates multiverse
# deb-src http://jp.archive.ubuntu.com/ubuntu/ focal-updates multiverse

## N.B. software from this repository may not have been tested as
## extensively as that contained in the main release, although it includes
## newer versions of some applications which may provide useful features.
## Also, please note that software in backports WILL NOT receive any review
## or updates from the Ubuntu security team.
deb http://jp.archive.ubuntu.com/ubuntu/ focal-backports main restricted universe multiverse
# deb-src http://jp.archive.ubuntu.com/ubuntu/ focal-backports main restricted universe multiverse

## Uncomment the following two lines to add software from Canonical's
## 'partner' repository.
## This software is not part of Ubuntu, but is offered by Canonical and the
## respective vendors as a service to Ubuntu users.
# deb http://archive.canonical.com/ubuntu focal partner
# deb-src http://archive.canonical.com/ubuntu focal partner

deb http://security.ubuntu.com/ubuntu focal-security main restricted
# deb-src http://security.ubuntu.com/ubuntu focal-security main restricted
deb http://security.ubuntu.com/ubuntu focal-security universe
# deb-src http://security.ubuntu.com/ubuntu focal-security universe
deb http://security.ubuntu.com/ubuntu focal-security multiverse
# deb-src http://security.ubuntu.com/ubuntu focal-security multiverse

# This system was installed using small removable media
# (e.g. netinst, live or single CD). The matching "deb cdrom"
# entries were disabled at the end of the installation process.
# For information about how to configure apt package sources,
# see the sources.list(5) manual.

เขียน shutdown service ใน ubuntu

ใน ubuntu จะมีโปรแกรมชื่อ systemd  เป็น service manager

ไฟล์ abc.service ต่างๆ จะอยู่ใน  /etc/systemd/system เพื่อให้ service นั้นๆ run ตอนที่คอมเปิดเครื่อง/รีสตาร์ท

ไฟล์ .service ที่เราเขียนเอง จะถูกเก็บไว้เป็น symbolic link ของpathจริง ใน /etc/systemd/system

[Unit]
Description=remote shutdown service

[Service]
ExecStart=/bin/bash -c "python -m uvicorn shutdown_api:app --host 0.0.0.0 --port 7999 --reload"
Restart=always
Type=simple
WorkingDirectory=/mnt/shutdown_api/
RestartSec=10
StandardOutput=syslog
StandardError=syslog

[Install]
WantedBy=multi-user.target

จริงๆแล้ว ใช้ ExecStart=/bin/bash -c “python3.8 /mnt/shutdown_api/shutdown_api.py” ก็น่าจะได้ แต่เซิฟเวอร์ที่ใช้อยู่เป็นอะไรไม่รู้รันคำสั่งธรรมดาไม่ได้ เลยต้องพิมพ์แบบยาวๆ

import uvicorn
from fastapi import FastAPI
import subprocess

app = FastAPI()

@app.get("/")
def shutdown():
    #subprocess.run([f"shutdown -h now"], shell=True)
    password = "serverpassword"
    command = f"echo {password} | sudo -S shutdown -h now"
    print(command)
    subprocess.run(command, shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE)    

if __name__ == "__main__":
    uvicorn.run(app, host="0.0.0.0", port=7999, reload=True)

ไฟล์ python นี้คือ ให้ uvicorn server รัน FastAPI application (app)

ส่วน app = FastAPI() ก็จะเรียก def shutdown() ถ้ามี HTTP GET command ถูกเรียกใข้งาน

จากการที่เรา พิมพ์ curl http://192.168.11.122:7999   ใน terminal

ปล.  host=”0.0.0.0″ means that the server will listen on all available network interfaces on the host machine.  This makes the server accessible from any IP address on the network.

วิธีติดตั้ง service

1. sudo systemctl daemon-reload
#to reload the systemd manager configuration

2. sudo systemctl enable shutdown.service
#to enable the service to start at boot (create symbolic link if not exist)

3. sudo systemctl start shutdown.service
#to start the service

4. sudo systemctl status shutdown.service
#to check the status of the service

ถ้า  host=0.0.0.0 ตามที่เขียนไว้ใน python file คือ ok

แต่ถ้าเป็น host=127.0.0.1 คือเป็น loopback จะไม่สามารถเรียก http get จาก คอมเครื่องอื่นในเน็ตเวิคได้

5. netstat -an|more #to check all available services

ปล. เขียนแยกหลายๆ decorator ก็เหมือนจะได้นะ

@app.get(“/shutdown”)
async def shutdown():

@app.get(“/restart”)
async def restart():

ส่วน HTTP POST ดูใช้งานยากอยู่ ยังไม่เคยลอง แต่ประมาณนี้
@app.post(“/items/”)
async def create_item(item: Item):

curl --header "Content-Type: application/json" \
     --request POST \
     --data '{"name": "example item", "price": 9.99}' \
     http://localhost:8000/items/

ตรง –data คือ ส่ง json structure เข้าไปเป็น input ที่ฟังก์ชัน

Create Avatar for Unity

From: https://support.readyplayer.me/hc/en-us/articles/360020740897-How-do-I-use-a-GLB-model-in-Unity-

  1. Create and download your avatar from https://readyplayer.me/
  2. Import your file into Blender – File/Import/gITF 2.0 (.glb/gltf)
  3. Edit your model (remove extra bones in the head, fingers, etc.)
  4. Go to the Texture Paint tab and select “View” in the top left of the Image Editor panel
  5. Select each texture from the drop-down at the top
  6. At the top left, click Image/Save As… (or Shift + Alt + S) and select your destination
  7. Export your model as an FBX – File/Export/FBX (.fbx)
  8. Import your model and textures into Unity
  9. Click the FBX avatar in the Assets window
  10. In the Inspector window, change the Location to “Use External Materials (Legacy)” and apply
  11. If some base textures don’t appear, click on the body part and manually assign the texture to the correct map (Albedo).

Unity Shader for Generating Annotation Image

Game scene:

  • Attach the 2nd (normal view) and 3rd (segmentation view) cameras to the game scene
  • Create Renderer Target x2 to receive images from the cameras
  • Create UI/Raw Image to show the images from the cameras

The segmentation view camera: attach the below script

using UnityEngine;
[ExecuteInEditMode]
public class ReplacementShaderTest : MonoBehaviour
{
    private Camera _camera;
    private Shader _shader;
    void OnEnable()
    {
        _camera = GetComponent<Camera>();
        _shader = Shader.Find("ReplaceObjectColorInCameraView");
        _camera?.SetReplacementShader(_shader, "Annotation");

    }
    private void OnDisable()
    {
        _camera?.ResetReplacementShader();
    }
}

We will have the below shader code in Assets folder. It is called by ReplaceObjectColorInCameraView.cs. It will check the Annotation tag set in another script and change the gameobject material color.

Shader "ReplaceObjectColorInCameraView"
{
	SubShader
	{
		Tags { "Annotation" = "green" }
		Pass
		{
			CGPROGRAM
			#pragma vertex vert
			#pragma fragment frag
			#include "UnityCG.cginc"

			float4 vert(float4 vertex : POSITION) : SV_POSITION
			{
				return UnityObjectToClipPos(vertex);
			}
			fixed4 frag() : SV_Target
			{
				return fixed4(0, 1, 0, 1); //green
			}
			ENDCG
		}
	}
	SubShader
	{
		Tags { "Annotation" = "red" }
		Pass
		{
			CGPROGRAM
			#pragma vertex vert
			#pragma fragment frag
			#include "UnityCG.cginc"

			float4 vert(float4 vertex : POSITION) : SV_POSITION
			{
				return UnityObjectToClipPos(vertex);
			}
			fixed4 frag() : SV_Target
			{
				return fixed4(1, 0, 0, 1); //red
			}
			ENDCG
		}
	}
}

At any gameobject, attach the below code to set an annotation tag.
A gameobject may contain many materials or has a material attached in its child object.

using System.Collections.Generic;
using System.Linq;
using UnityEngine;

[ExecuteInEditMode]
public class SetShaderTagsAnnotation : MonoBehaviour
{
    public enum AnnotationType
    {
        green, red
    }
    public AnnotationType annotation_name; 

    void Start()
    {
         List<Material> list_material = obj.GetComponent<Renderer>().materials.ToList();
         foreach (Material mat in list_material)
         {
             mat.SetOverrideTag("Annotation", annotation_name.ToString());
         }
         ApplyAnnotation(gameObject.transform);
    }
    void ApplyAnnotation(Transform obj)
    {
        Renderer myRenderer = obj.GetComponent<Renderer>();
        if (myRenderer != null)
        {
            myRenderer.material.SetOverrideTag("Annotation", annotation_name.ToString());
            //Debug.Log(obj.name + " is set to " + annotation_name.ToString());
        }
        else
        {
            //Debug.Log(obj.name + " has no Renderer component");
            TraverseHierarchy(obj.transform);
        }
    }

    void TraverseHierarchy(Transform parent)
    {
        //Debug.Log("TraverseHierarchy of " + parent.name);
        foreach (Transform child in parent)
        {
            ApplyAnnotation(child);
        }
    }

ShowPath

using System.Collections;
using System.Collections.Generic;
using UnityEngine;

public class PathReader : MonoBehaviour
{
    public GameObject MarkStart, MarkGoal, MarkFP;
    public float smooth_distance;
    public TextAsset filename;
    //private List<string> file_data_line;
    private List<Vector3> positions, rotations;

    private LineRenderer lineRenderer;

    void Awake()
    {
        lineRenderer = GetComponent<LineRenderer>();
        //file_data = System.IO.File.ReadAllLines(filename_path);
        //Debug.Log(filename);
    }

    void Start()
    {
        List<string> file_data_each_line = TextAssetToListString(filename);
        ListStringToListVector(file_data_each_line, out positions, out rotations, smooth_distance);
        //MapToGroundPosition(); //cannot change the value of List<Vector3> after assigned.

        //Assign positinos to line renderer
        lineRenderer.positionCount = positions.Count;
        lineRenderer.SetPositions(positions.ToArray());

        //Assign Mark object position
        MarkStart.transform.position = positions[0];
        MarkGoal.transform.position = positions[positions.Count-1];
        MarkFP.transform.position = positions[1];

        Debug.Log("Positions count = " + positions.Count);
    }

    private List<string> TextAssetToListString(TextAsset ta)
    {
        return new List<string>(ta.text.Split('\n'));
    }


    private void ListStringToListVector(List<string> list_text, out List<Vector3> list_pos, out List<Vector3> list_rot, float smd)
    {
        list_pos = new List<Vector3>();
        list_rot = new List<Vector3>();

        // 1st line is label
        // 2nd line add to thevector
        string[] columns = list_text[1].Split(',');
        Vector3 load_position = new Vector3(float.Parse(columns[1]), 0f, float.Parse(columns[3])); //set y to ground
        Vector3 load_rotation = new Vector3(float.Parse(columns[4]), float.Parse(columns[5]), float.Parse(columns[6]));
        positions.Add(load_position);
        rotations.Add(load_rotation);

        for (int i = 2; i < list_text.Count; i++) // from 3nd line, check distance before add to the vector
        {
            //Debug.Log(line);
            columns = list_text[i].Split(',');

            if (columns.Length != 7) // not enough information to extract (end of line)
                return;

            //Debug.Log(i+" "+columns.Length);

            //Vector3 load_position = new Vector3(float.Parse(columns[1]), float.Parse(columns[2]), float.Parse(columns[3]));
            load_position = new Vector3(float.Parse(columns[1]), 0f, float.Parse(columns[3])); //set y to ground
            load_rotation = new Vector3(float.Parse(columns[4]), float.Parse(columns[5]), float.Parse(columns[6]));

            if(Vector3.Distance(positions[positions.Count-1], load_position) > smd)
            {
                positions.Add(load_position);
                rotations.Add(load_rotation);
            }

        }
    }



}

Mask R-CNN

ช่วงนี้กำลังแกะรอย Mask R-CNN Architecture พอดีต้องพรีเซนต์งาน แต่ยัง งงๆกับโครงสร้างข้างในอยู่

https://www.slideshare.net/windmdk/mask-rcnn

เริ่มจากรูปนี้ที่เห็นแพร่หลาย ซึ่งไม่ได้มาจากคนเขียนเปเปอร์ แต่มาจากคนที่ทำ slide รีวิวงานนี้อีกที รูปนี้ทำมาดูเข้าใจง่าย ก็คือ Mask R-CNN เป็น patch เสริม (เพิ่ม Segmentation) ของ Faster R-CNN (ที่ทำแค่ Object detection)

หลักๆแบ่งเป็น 4 ส่วน
1. CNN เอาไว้ extract features จากรูป input ได้เป็น feature map ออกมา
2. RPN เอาไว้ propose region ส่วนที่น่าจะเป็น object
3. RoIAlign เอาไว้ resize feature map (a region ที่อยู่ใน feature map) ให้มี size เท่ากันให้หมด (กำหนด size ล่วงหน้าไว้ในconfig)
เพราะการ train network เราจะ feed input ที่เป็น tensor (array หลายมิติ) เข้าไปขนาดมันเลยต้องแปลงให้เท่ากันจะได้ใส่ใน tensor ได้
4. Head : Classification / Object detection/ Mask prediction

ในส่วนแรกที่เป็น Feature extraction เราจะเลือกโครงสร้างได้ 2 แบบคือ Conv network ธรรมดา จะใช้ VGG หรือ Resnet เป็น Backbone ก็ได้ กับอีกแบบคือ เสริม Feature Pyramid Network (FPN) เข้าไป ซึ่งจะช่วงให้ learn object เล็กๆได้

โค๊ด Mask R-CNN ต้นฉบับเป็นของ Facebook เขียนด้วย pytorch
แต่เรายังไม่เคยเขียน pytorch เลยเลือกใช้โค๊ดของ Matterport ที่เขียนด้วย keras
คิดว่า Architecture ข้างในของทั้ง 2 version คงไม่เหมือนกัน100%
ตัวที่ใช้อยู่นี้ backbone เป็น Resnet101 with FPN


เวลาเรียกฟังก์ชันสร้างโมเดล Mask R-CNN แล้ว เราสามารถ save model นั้นลงไฟล์

keras.models.save_model(model.keras_model,"mask_rcnn.hdf5")

เอาไฟล์ ไปเปิดในโปรแกรม Netron ก็จะเห็นโครงสร้างอันยาวเหยียด

หรือจะ plot model แล้ว save รูปดูก็ได้

#!conda install pydot -y 
#!conda install python-graphviz -y
from keras.utils import plot_model
plot_model(model, show_shapes=True, to_file='model.png')

ก็จะได้กราฟยาวเหยียดคล้ายๆกัน
คือในส่วนหลังจาก Feature extraction แล้ว จะมีการเรียก class พวก ProposalLayer, PyramidROIAlign, DetectionLayer ทำให้กราฟที่ได้จาก Netron กับ plot_model() จะมีความแตกต่างกันนิดหน่อย

กราฟของ model นี้ ถ้าเริ่ม train model แล้ว ก็สามารถไปดูได้ใน tensorboard ได้เหมือนกัน

แล้วก็ ในไฟล์ inspect_model.ipynb จะมีตัวอย่างการใช้ฟังก์ชัน run_graph() ซึ่งช่วยให้เรารู้ขนาดของ output ตอนที่ออกมาจากแต่ละ layer ได้ + จะใช้ display_images() โชว์หน้าตาของ ouput ณ ตอนนั้น มาดูก็ได้

# Get activations of a few sample layers
activations = model.run_graph([image], [
    ("input_image_meta",        tf.identity(model.keras_model.get_layer("input_image_meta").output)), 
    ("rpn_bbox",           model.keras_model.get_layer("rpn_bbox").output),
    ("fpn_p6",     model.keras_model.get_layer("fpn_p6").output),
])
input_image_meta         shape: (1, 19)               min:    0.00000  max: 1024.00000  float32
rpn_bbox                 shape: (1, 261888, 4)        min:  -18.46270  max:   71.82899  float32
fpn_p6                   shape: (1, 16, 16, 256)      min:  -19.04598  max:   21.66270  float32
tp_layer = np.transpose(activations["fpn_p6"][0,:,:,:], [2, 0, 1]) #order
display_images(tp_layer, cols=64)
Feature map/Activation map ที่ออกมาจาก layer fpn_p6 ขนาด 16x16x256

อย่างไรก็ตาม ก็ยังประติดประต่อ โครงสร้างของ Mask R-CNN ไม่ได้อยู่ดี เลยต้องเขียนแผนผัง layer ขึ้นมาเองอีกรอบ (ใช้โปรแกรม drawio)

ภาพบนแสดง layers ในส่วน Feature extraction ที่เป็น Resnet101 + FPN
ภาพล่างแสดงส่วนที่เป็น RPN, ROIAlign, Classification, Object detection (box regression), Mask prediction

Hololens V1 – Falling star

Each airtap do: create object, add rigidbody (gravity) to the object, and finally delete the object.

Somehow, the GazeManager.Instance.HitObject hit the child obj that contain a mesh/box collider. Therefore, we need to check tag name on its parent.
Note that, Mesh Collider needs to check on Convex, otherwise when add a rigidbody, it will fall down eternity without colliding with the room floor.

using System.Collections;
using System.Collections.Generic;
using UnityEngine;
using HoloToolkit.Unity.InputModule;

public class SpawnDropObject : MonoBehaviour, IInputClickHandler
{
    //[SerializeField] private PanelDebug panelDebug;
    public GameObject iprefab;
    private int ObjCount;
    private List<GameObject> ObjList;
    void Start()
    {
        InputManager.Instance.PushFallbackInputHandler(gameObject);
        ObjList = new List<GameObject>();
    }

    public void OnInputClicked(InputClickedEventData eventData)
    {
        if (!GazeManager.Instance.HitObject) //airtap at nothing = create new obj
        {
            Debug.Log("!GazeManager.Instance.HitObject");
            Vector3 obj_position = Camera.main.transform.position + Camera.main.transform.forward;
            CreateNewObject(obj_position);
        }
        else
        {
            //panelDebug.ShowMessage(GazeManager.Instance.HitObject.name);
            Debug.Log("\n"+GazeManager.Instance.HitObject.name + " " + GazeManager.Instance.HitObject.tag + " " + GazeManager.Instance.HitObject.transform.parent.tag);

            // Airtap at floating object. Then, add gravity to the obj = drop it down
            if (GazeManager.Instance.HitObject.tag == "Floating") 
            {
                Debug.Log("HitObject.tag == Floating");
                GazeManager.Instance.HitObject.AddComponent<Rigidbody>();  
                GazeManager.Instance.HitObject.tag = "Falldown";
            }
            else if (GazeManager.Instance.HitObject.transform.parent.tag == "Floating")
            {
                Debug.Log("HitObject.parent.tag == Floating");
                GazeManager.Instance.HitObject.AddComponent<Rigidbody>(); 
                GazeManager.Instance.HitObject.transform.parent.tag = "Falldown";
            }

            // Airtap at object on floor. Then, remove it.
            else if (GazeManager.Instance.HitObject.tag == "Falldown") 
            {
                Debug.Log("HitObject.tag == Falldown");
                ObjList.Remove(GazeManager.Instance.HitObject);
                Destroy(GazeManager.Instance.HitObject);
            }
            else if (GazeManager.Instance.HitObject.transform.parent.tag == "Falldown") 
            {
                Debug.Log("HitObject.parent.tag == Falldown");
                ObjList.Remove(GazeManager.Instance.HitObject.transform.parent.gameObject);
                Destroy(GazeManager.Instance.HitObject.transform.parent.gameObject);
            }

            // Airtap at something (room mesh). Then, create new obj.
            else 
            {
                Debug.Log("HitObject.tag == ??");
                Debug.Log("HitObject" + GazeManager.Instance.HitObject.transform.position.ToString());
                Debug.Log("HitPosition" + GazeManager.Instance.HitObject.ToString());
                //CreateNewObject(GazeManager.Instance.HitObject.transform.position); // this position is not the world coordinate
                CreateNewObject(GazeManager.Instance.HitPosition);
            }
        }

        
        string objlistname = "\nObj in List";
        foreach (GameObject obj in ObjList)
        {
            string text = "\n"+obj.name + " " + obj.tag;
            objlistname += text;         
        }
        Debug.Log(objlistname);
    }
    private void CreateNewObject(Vector3 position)
    {
        Debug.Log("CreateNewObject at"+ position.ToString());
        GameObject newobj = Instantiate(iprefab, position, Quaternion.identity);
        newobj.tag = "Floating";

        ObjList.Add(newobj);
    }
}

Hololens V1 – Save text file

This application will record Hololens transformation overtime and save to any text file (my code is csv file) inside the device.

using UnityEngine;
using System.Collections;
using System.Collections.Generic;
using System;
using System.IO;
using System.Linq;

#if WINDOWS_UWP
using Windows.Storage;
using Windows.System;
using System.Threading.Tasks;
using Windows.Storage.Streams;
#endif

// saved folder : User Folders \ LocalAppData \ Appname \ LocalState \
public class WriteCSVFile : MonoBehaviour
{
#if WINDOWS_UWP
    Windows.Storage.ApplicationDataContainer localSettings = Windows.Storage.ApplicationData.Current.LocalSettings;
    Windows.Storage.StorageFolder localFolder = Windows.Storage.ApplicationData.Current.LocalFolder;
#endif

    private string timeStamp;
    private string fileName;
    private string saveInformation;
 
    public void WriteTextToFile(string text)
    {
        timeStamp = System.DateTime.Now.ToString().Replace("/", "_").Replace(":", "-").Replace(" ", "_");
        fileName = "transform-" + timeStamp + ".csv";
        saveInformation = text;
        
#if WINDOWS_UWP
        WriteData();
#endif
    }

#if WINDOWS_UWP
    async void WriteData()
    {
        StorageFile saveFile = await localFolder.CreateFileAsync(fileName, CreationCollisionOption.ReplaceExisting);
        string fileheader = "id,pos_x,pos_y,pos_z,rot_x,rot_y,rot_z" + "\r\n";
        await FileIO.AppendTextAsync(saveFile, fileheader + saveInformation);
    }
#endif

}

In another script file, we record transform data and call WriteTextToFile() to write a text.

[SerializeField] private WriteCSVFile writeCSVFile;
private StringBuilder csv;

private void PreparePositiontosave()
{
    csv.Remove(0, csv.Length);
    for (int i = 0; i < positions.Count; i++)
    {
        var newLine = string.Format("{0},{1},{2},{3},{4},{5},{6}", i,
                        positions[i].x, positions[i].y, positions[i].z,
                        rotations[i].x, rotations[i].y, rotations[i].z);
        csv.AppendLine(newLine);
        writeCSVFile.WriteTextToFile(csv.ToString());
    }
} 

Here is where the file was saved and its content.